前陣子差評君刷到一個視頻。
一隻貓打碎花瓶後迅速逃走,主人從房間衝出來,二話不說把賬算到了旁邊狗頭上。
狗一臉委屈,舉起爪子嗷嗷叫,彷彿在說:冤枉啊大哥,我沒動。
靠,貓壞狗好的經典劇情,差評君當場就看樂了。
但轉念一想,這會不會過於巧合了,還正好給人拍下來了?
直到我看到平台那一條「疑似 AI 創作」的提示,以及評論區那句「我已經不能第一時間分辨出 AI 視頻」。
差評君才意識到,這是一個徹頭徹尾的 AI 視頻。

其實偶爾刷到一兩個 AI 視頻,不算什麼大事。
真正讓人細思極恐的是,最近兩周,我已經刷到了幾十個 AI
視頻,而且頻率越來越高,真假也更難以分辨。
就說前兩天,抖音上有個視頻很火。
一個國外高校教授忍無可忍,在課堂上批評學生使用 AI 完成作業。視頻被國內一堆藍 V
轉發,並配上黃字封標解讀。
該圖片可能由AI生成

評論區的網友們也是一片叫好,紛紛讚揚教授的堅守,還有老師把這段視頻轉發給了學生。

可真相你可能想不到,這段視頻本身——
就是 AI。
大學教授查不到任何信息,兩隻手也不自然,黑板上板書都是鬼畫符。類似的教授紅溫主題 AI 視頻,在 TikTok
上也有一堆。
圖源@全民較真-騰訊新聞

諷不諷刺,魔幻不魔幻?
再看看下面這個。
一匹失控的馬在路上橫衝直撞,先是踩碎了汽車玻璃,接著又撞壞了門板。
視頻在 TikTok 上斬獲了 210 萬點贊,3 萬條評論,熱度爆表。
符合直覺的物理反饋,抖動的鏡頭,整個畫面的真實感幾乎讓人無法質疑,差評君盯著每一幀都找不出破綻。
直到最後發現作者主頁全是類似主題的 AI 視頻,我才勉強確認,這 TM 又是 AI 的傑作。

其實差評君不反感 AI 視頻。
還記得秦朗暑假作業事件嗎?擺拍可以,但你得標註清楚,不能拿擺拍當真事兒來忽悠大眾。
同樣的道理,差評君並不是反感AI 視頻本身,而是反感那些不主動聲明的 AI
視頻,以及看到有噱頭的事件不去求證轉手就當新聞發的媒體。
如果這種 AI 視頻欺騙網友的現象持續發生,那麼很快:
每當大夥看到一個視頻時,第一反應不再是驚訝,而是立即產生條件反射般的懷疑——
這,不會又是 AI 吧?

這絕不是什麼好兆頭。
幾十年來,視頻憑藉其製作門檻的天然壁壘,一直是最可信的媒介形式。圖片可以 P,但從頭到尾做一個假視頻很難。
可AI 視頻出現後的短短兩年,這道防線正在土崩瓦解。
眼見為實成了過去式。
你發現沒,越來越多的評論區已經不再討論內容本身了,而是變成大型偵探現場:網友們逐幀分析、尋找
AI 痕迹,集體陷入了「我們已經分辨不出 AI」的恐慌中。
震撼的變成了「真的假的」,可愛的變成了「AI做的吧」,驚奇的變成了「哪個模型生成的」。

當 AI
視頻充斥並偽裝在社交媒體中,我們就徹底失去了純粹欣賞內容的權利。每看一個視頻,都要先當一回福爾摩斯。
說實話,差評君已經受到影響了。
前幾天我在小紅書刷到一段搬運視頻,英國演員 Simon Pegg 在 instagram 上對 AI 視頻深惡痛絕。
他說自己原本特別享受刷小孩和小狗的互動視頻,看完心情都能好一天,結果現在這些視頻沒一個是真的,全是 AI 批量生產的。
該圖片可能由AI生成

Simon 這段話,讓我深有共鳴。
以前那些溫馨的、巧合的、讓人感動的瞬間之所以珍貴,就是因為它們不可複製。這種偶然性本身就是價值的一部分。
但現在呢?
「貓狗互動」「動物救人」「完美時機」,這些東西都能批量生產,要什麼場景要什麼情緒,都可以交給 AI 按需定製。
當奇蹟變成流水線產品,當社交媒體上全都是「巧合」,大眾情感自然就會貶值、廉價。

然而,正當差評君準備把這段視頻當文章素材、試圖找到原始出處時,卻遇到了一個問題——
我在西蒙 instagram 主頁上找不到這個視頻,Google
搜索也一無所獲,我聯繫了搬運者詢問出處,但截至發稿仍未收到回復。
換句話說,現在,我無法確認這段「西蒙怒斥AI」視頻是真是假。
去年的差評君,看到這種視頻可能還是會相信一下。
但現在,一個再真實,再毫無破綻的視頻,只要沒找到最直接、最實錘的證據,我都不敢確定它是真的。
這還不是最可怕的。
最可怕的是,當我們越來越難以分辨 AI
視頻,謠言傳播將變得前所未有的容易,闢謠也越來越難。
今年 1
月,西藏日喀則發生地震,社交媒體上迅速流傳一張震撼人心的照片:一個小男孩被壓在廢墟下,臉上滿是塵土。無數人被這張圖片深深觸動,轉發、評論、祈禱,關心這個孩子是否平安。
該圖片可能由AI生成

直到相關話題衝上熱搜,官方闢謠,大家才發現:這是 AI 生成的圖,根本沒有這個孩子。
那些真摯的擔心和情緒,全都餵給了一張假圖。
3 月,新疆阿克蘇地區發生地震,震後僅僅三小時,就有人用 AI
拼接出「已致3人死亡、65戶房屋倒塌」的虛假圖片。實際上,這次地震根本沒有造成人員傷亡。
這陣子,網上又流行起了用 AI 生成「流浪漢闖入進家」的圖片視頻去整蠱自己的家人,很多人都上當,甚至還報了警。。。
該圖片可能由AI生成

可想而知,當視頻能被 AI 迅速偽造,當 AI
視頻越來越真實,謠言的傳播力就無法想像,闢謠的難度更會指數級上升。
你可能會說,不是有監管,不是有技術手段可以識別 AI 嗎?
的確,平台和監管部門都在努力——AI 檢測技術、強制水印、立法規範,各種措施層出不窮。
但問題是:
識別技術總是慢生成技術一拍,AI 視頻水印能被技術手段移除,C2PA 也可以通過外部錄屏去掉,境外工具生成的 AI
視頻,你在境內也管不了。(C2PA 是一種嵌在圖片、視頻元數據中的認證標準,用於追溯內容創建,相當於出生證明)

差評君知道,AI 視頻本身不是什麼洪水猛獸,它確實能帶來創作便利和無限創意。
但在擁抱技術紅利的同時,我們是否該警醒正在失去一些什麼東西?
內容分析平台 Graphite 曾發布過一項數據,早在 2024 年 11 月,網路上 AI
生成的文章數量就超過了人類撰寫的文章。
AI 視頻,會不會也快了?

也許要不了多久,只要一個視頻出現,評論區就會呈現出三種截然不同的反應。有人在評論區逐幀分析,有人點贊轉發,有人直接說「管它真假,開心就好」。
當這種分化愈加明顯時,社會就會出現三種人。
有被動接受者,他們不知道 AI 視頻的存在,照常被感動、逗樂,然後點贊,轉發給朋友。
也有懷疑者,他們有能力也有精力去驗證每個視頻的真假;
還有放棄者,知道有假,但累了。每天做信息鑒定太麻煩,索性不管了——反正都是娛樂,真假無所謂。
這讓我想起了《黑客帝國》里的經典一幕,墨菲斯遞給尼奧兩顆藥丸:
藍色藥丸,回到美夢中;紅色藥丸,看清殘酷真相。

未來,我們也要面臨同樣的選擇。
藍色藥丸的確很誘人。管它真假,刷到貓狗視頻就笑,刷到感人故事就哭,多簡單。反正 AI 做的夢也很美好,為什麼要戳破它?
可是,當我們為一隻不存在的狗感動落淚,當被一個虛構的故事騙取同情,當把情感投入到一堆代碼生成的像素里——
這樣的快樂,還是真的嗎?