視頻中的這段講話,歐巴馬告訴我們,你看到的不一定是真的。
其實,歐巴馬本人從來沒說過這段話。這是美國演員Jordan Peele採用一種叫做Deepfake的工具,偽造的一段視頻。
這種工具運用人工智慧、機器學習技術,讓一個普通人也可以輕鬆地讓歐巴馬在視頻裡說出任何你想讓他說的話,達到以假亂真的效果。
這個視頻,這個以下這些,都是偽造的,全部都是通過 Deepfake 技術做出來的。只要你收集一個人足夠多的真實錄像素材,你就能用AI讓這些名人「發表」任何觀點。
人類開啟了一個從來沒有面對過的潘多拉魔盒。本期視知研究所帶你了解一下,它的可怕之處。
1.
你所獲得的信息,80%以上來自視覺。大多數情況下,我們會本能地相信,眼睛看到的就是真實的。
創造「假」圖像也不是什麼新鮮事。只不過,篡改歷史圖像的技術,曾經只有少數人掌握,並且代價高昂。
以前想要偽造一段名人的錄像,怎麼弄?
先得從茫茫人海裡找一個長得像的人。我小時候喜歡看一個綜藝節目叫 《超級明星臉》,每期都會有長得跟某個明星很像的素人來模仿那個明星來一段表演。有的選手長得是劉德華張惠妹,但是一張口,聲音是東北味兒。
今年《脫口秀大會》上老四模仿呼蘭,言行舉止恨不得比呼蘭更像呼蘭。如果這時候有一種「障眼法」能讓老四的長相和聲音也和呼蘭一模一樣,那可能親媽都認不出來。Deepfake就是這樣一種障眼法。
如果有這麼一個工具又簡單又免費,你會用它模仿呼蘭嗎?
和網際網路很多新技術一樣,Deepfake剛出來的時候,最主要的應用就是搞黃色。根據 Deeptrace 的報告,截至2019年9月,利用深度網絡製作的虛假視頻內容 96% 都是色情視頻。
一個人真實的音畫素材越多,AI模擬就越準確。不難想像,女明星因為常常在各種媒體露臉,所以素材豐富,就成了最常見的受害者。
然而現在,普通人的照片、視頻也可以輕易地從社交網絡上採集到,所以也許哪天某個奇奇怪怪的網站上,就莫名其妙地有了以你為主角的視頻,讓你在老闆、父母和朋友面前百口莫辯。
2.
有人可能會說,這個不過是一個更高級的PS技術,以前也有給人換頭,PS出假照片的,這個新技術能有多大危害呢?
這兩者之間的差異完全不是一個數量級。到底區別在哪兒呢?
先來說說這種令人頭大的黑科技到底是從哪裡冒出來的。
人工智慧、機器學習技術我們往期節目中也多次提到過,它可以精確地識別語音和面孔這不奇怪。無非就是給AI一堆素材,讓它去學習找規律。那Deepfake的厲害之處在哪裡呢?
它採用了一種叫做生成對抗網絡的訓練方法,是2014年由一位在讀博士生發明的。原理就是用兩個獨立的神經網絡,一個叫「發生器」負責寫作業,一個叫「鑑別器」負責檢查作業。通過反覆地以己之矛攻己之盾,等到鑑別器的鑑別真假成功率下降到50%以下,就意味著「發生器」人工合成的圖像已經足以以假亂真了。
2018年底,網際網路上有近 8千個deepfake假視頻,短短九個月後,數量就翻了一倍。
普通人在越來越厲害的Deepfake面前,就像西遊團隊剛剛組建時的唐僧,視頻裡看到的是人是妖,根本分不清楚。
試想如果在某個敏感的時間節點,有人用deepfake合成出某大國總統宣布核平某小國的演講,然後視頻全網病毒式傳播,小國趕緊撩起飛彈先發制人,或者在一些族群對立嚴重的國家,製造和散播衝突爆發的假視頻……這結果,我是不敢想。
3.
真正可怕的地方還不止於此。
俗話說:「眼見為實」。如果是別人轉述的事情,我不一定相信,可能是假新聞啊。那如果我都看見事情發生了,那不就是事實證據嗎?
所以,這種視頻造假的技術實現了一個質的飛躍:從製造假新聞,變成製造「假證據」,從而生產「假事實」。
如果說川普是「後真相時代」的一桿發射謊言的機關槍,那 Deepfake 就是噴射謊言的大規模殺傷性武器。
它的致命危害,不僅在於人們更容易去相信那些假的新聞視頻,而更加在於人們連真的新聞都不知道要不要相信了。
「親眼所見」曾經是事實和虛假之間的一堵隔離牆,現在,這個隔離牆正在倒塌。如果我們無法分辨真假,那我們跟真實世界的聯繫就會被切斷,會喪失判斷是非善惡的能力。
4.
那怎麼辦?有的人就會想,用法律禁止Deepfake啊,嚴刑重典啊。
人類現有的法律確實常常跟不上技術引發的全面、快速的社會變革,需要去跟進。不過,這個技術既然已經存在,並且有利可圖,那即使明文禁止,也會有人去鑽法律的漏洞。
從短期來看,最有效的解決辦法還是採用技術手段去識別deepfake的內容,儘量限制它的傳播。
畢竟,用Deepfake造出的視頻還是會露出馬腳的。就像孫悟空和二郎神鬥法的時候,變出的房子還有個尾巴什麼的。
舉個例子來說,真人說話的視頻中,說話人的臉色是會隨著心跳而有節奏地微弱變化的。還有,正常人一邊說話一邊眨眼睛也應該是有一個合理的節奏的。如果一個視頻,裡面的人永遠在且僅在你眨眼的時候眨眼睛,那他多半不對勁。
話說回來,道高一尺魔高一丈,一旦我方科學家透露出自己的推理,對方黑暗組織的 deepfake 也會針對性地完善算法。我方怎麼辦?我方科學家能做的,也只能是不斷地提高檢測水平,把普通人造假的門檻抬得更高一些。
因為人性永遠有弱點,人類與謠言的賽跑,恐怕也會永無止境。
參考資料:
[1]J.M. Porup, 「How and why deepfake videos work — and what is at risk」, CSO, 2019-4
[2]William A. Galston, Report 「Is seeing still believing? The deepfake challenge to truth in politics」, Brookings, 2020-1
[3]Rob Toews, 「Deepfakes Are Going To Wreak Havoc On Society. We Are Not Prepared.」, forbes.com, 2020-5
[4]John Donovan, 「Deepfake Videos Are Getting Scary Good」, howstuffworks.com, 2019-7
[5]Michael Kan, 「Most AI-Generated Deepfake Videos Online Are Porn」, pcmag.com, 2019-10
[6]「It’s Getting Harder to Spot a Deep Fake Video」, Bloomberg Quicktake, 2018-9
Claire Wardle, 「Deepfakes: Is This Video Even Real?」, NYT Opinion, 2019-8
[7]「Could deepfakes weaken democracy?」, The Economist, 2019-10
[8]「Deep Fakes: How They’re Made And How They Can Be Detected」, NBC News, 2018-10
[9]「Don't Trust ANYTHING You See - Deepfakes Explained」, Techquickie, 2019-11
[10]「Deepfake Videos Are Getting Real and That’s a Problem」, Wall Street Journal, 2018-10