Deepfake到底有多可怕?(圖文版)

2021-02-15 視知

視頻中的這段講話,歐巴馬告訴我們,你看到的不一定是真的。

 

其實,歐巴馬本人從來沒說過這段話。這是美國演員Jordan Peele採用一種叫做Deepfake的工具,偽造的一段視頻。

 

這種工具運用人工智慧、機器學習技術,讓一個普通人也可以輕鬆地讓歐巴馬在視頻裡說出任何你想讓他說的話,達到以假亂真的效果。

 

這個視頻,這個以下這些,都是偽造的,全部都是通過 Deepfake 技術做出來的。只要你收集一個人足夠多的真實錄像素材,你就能用AI讓這些名人「發表」任何觀點。

 

人類開啟了一個從來沒有面對過的潘多拉魔盒。本期視知研究所帶你了解一下,它的可怕之處。

 

1. 

你所獲得的信息,80%以上來自視覺。大多數情況下,我們會本能地相信,眼睛看到的就是真實的。

 

創造「假」圖像也不是什麼新鮮事。只不過,篡改歷史圖像的技術,曾經只有少數人掌握,並且代價高昂。

 

以前想要偽造一段名人的錄像,怎麼弄?

 

先得從茫茫人海裡找一個長得像的人。我小時候喜歡看一個綜藝節目叫 《超級明星臉》,每期都會有長得跟某個明星很像的素人來模仿那個明星來一段表演。有的選手長得是劉德華張惠妹,但是一張口,聲音是東北味兒。

 

今年《脫口秀大會》上老四模仿呼蘭,言行舉止恨不得比呼蘭更像呼蘭。如果這時候有一種「障眼法」能讓老四的長相和聲音也和呼蘭一模一樣,那可能親媽都認不出來。Deepfake就是這樣一種障眼法。

 

如果有這麼一個工具又簡單又免費,你會用它模仿呼蘭嗎?

 

和網際網路很多新技術一樣,Deepfake剛出來的時候,最主要的應用就是搞黃色。根據 Deeptrace 的報告,截至2019年9月,利用深度網絡製作的虛假視頻內容 96% 都是色情視頻。

一個人真實的音畫素材越多,AI模擬就越準確。不難想像,女明星因為常常在各種媒體露臉,所以素材豐富,就成了最常見的受害者。

 

然而現在,普通人的照片、視頻也可以輕易地從社交網絡上採集到,所以也許哪天某個奇奇怪怪的網站上,就莫名其妙地有了以你為主角的視頻,讓你在老闆、父母和朋友面前百口莫辯。

2. 

有人可能會說,這個不過是一個更高級的PS技術,以前也有給人換頭,PS出假照片的,這個新技術能有多大危害呢?

 

這兩者之間的差異完全不是一個數量級。到底區別在哪兒呢?

 

先來說說這種令人頭大的黑科技到底是從哪裡冒出來的。

 

人工智慧、機器學習技術我們往期節目中也多次提到過,它可以精確地識別語音和面孔這不奇怪。無非就是給AI一堆素材,讓它去學習找規律。那Deepfake的厲害之處在哪裡呢?

 

它採用了一種叫做生成對抗網絡的訓練方法,是2014年由一位在讀博士生發明的。原理就是用兩個獨立的神經網絡,一個叫「發生器」負責寫作業,一個叫「鑑別器」負責檢查作業。通過反覆地以己之矛攻己之盾,等到鑑別器的鑑別真假成功率下降到50%以下,就意味著「發生器」人工合成的圖像已經足以以假亂真了。

 

2018年底,網際網路上有近 8千個deepfake假視頻,短短九個月後,數量就翻了一倍。

 

普通人在越來越厲害的Deepfake面前,就像西遊團隊剛剛組建時的唐僧,視頻裡看到的是人是妖,根本分不清楚。

  

試想如果在某個敏感的時間節點,有人用deepfake合成出某大國總統宣布核平某小國的演講,然後視頻全網病毒式傳播,小國趕緊撩起飛彈先發制人,或者在一些族群對立嚴重的國家,製造和散播衝突爆發的假視頻……這結果,我是不敢想。

 

3.

真正可怕的地方還不止於此。

 

俗話說:「眼見為實」。如果是別人轉述的事情,我不一定相信,可能是假新聞啊。那如果我都看見事情發生了,那不就是事實證據嗎?

 

所以,這種視頻造假的技術實現了一個質的飛躍:從製造假新聞,變成製造「假證據」,從而生產「假事實」。

 

如果說川普是「後真相時代」的一桿發射謊言的機關槍,那 Deepfake 就是噴射謊言的大規模殺傷性武器。

 

它的致命危害,不僅在於人們更容易去相信那些假的新聞視頻,而更加在於人們連真的新聞都不知道要不要相信了。

 

「親眼所見」曾經是事實和虛假之間的一堵隔離牆,現在,這個隔離牆正在倒塌。如果我們無法分辨真假,那我們跟真實世界的聯繫就會被切斷,會喪失判斷是非善惡的能力。

 

4.

那怎麼辦?有的人就會想,用法律禁止Deepfake啊,嚴刑重典啊。

 

人類現有的法律確實常常跟不上技術引發的全面、快速的社會變革,需要去跟進。不過,這個技術既然已經存在,並且有利可圖,那即使明文禁止,也會有人去鑽法律的漏洞。

 

從短期來看,最有效的解決辦法還是採用技術手段去識別deepfake的內容,儘量限制它的傳播。

 

畢竟,用Deepfake造出的視頻還是會露出馬腳的。就像孫悟空和二郎神鬥法的時候,變出的房子還有個尾巴什麼的。

舉個例子來說,真人說話的視頻中,說話人的臉色是會隨著心跳而有節奏地微弱變化的。還有,正常人一邊說話一邊眨眼睛也應該是有一個合理的節奏的。如果一個視頻,裡面的人永遠在且僅在你眨眼的時候眨眼睛,那他多半不對勁。

 

話說回來,道高一尺魔高一丈,一旦我方科學家透露出自己的推理,對方黑暗組織的 deepfake 也會針對性地完善算法。我方怎麼辦?我方科學家能做的,也只能是不斷地提高檢測水平,把普通人造假的門檻抬得更高一些。

 

因為人性永遠有弱點,人類與謠言的賽跑,恐怕也會永無止境。

  

參考資料:

[1]J.M. Porup, 「How and why deepfake videos work — and what is at risk」, CSO, 2019-4

[2]William A. Galston, Report 「Is seeing still believing? The deepfake challenge to truth in politics」, Brookings, 2020-1

[3]Rob Toews, 「Deepfakes Are Going To Wreak Havoc On Society. We Are Not Prepared.」, forbes.com, 2020-5

[4]John Donovan, 「Deepfake Videos Are Getting Scary Good」, howstuffworks.com, 2019-7

[5]Michael Kan, 「Most AI-Generated Deepfake Videos Online Are Porn」, pcmag.com, 2019-10

[6]「It’s Getting Harder to Spot a Deep Fake Video」, Bloomberg Quicktake, 2018-9

Claire Wardle, 「Deepfakes: Is This Video Even Real?」, NYT Opinion, 2019-8

[7]「Could deepfakes weaken democracy?」, The Economist, 2019-10

[8]「Deep Fakes: How They’re Made And How They Can Be Detected」, NBC News, 2018-10

[9]「Don't Trust ANYTHING You See - Deepfakes Explained」, Techquickie, 2019-11

[10]「Deepfake Videos Are Getting Real and That’s a Problem」, Wall Street Journal, 2018-10

相關焦點

  • 黑科技DeepFake,上線五天就遭全球唾棄,到底有多邪惡?
    黑科技DeepFake,上線五天就遭全球唾棄,到底有多邪惡?這個高能黑科技,為什麼遭到了全球的唾棄?一、神奇女俠被換臉2017年年底,Deepfake第一次亮相就引起了轟動。當時deepfake在美國社交新聞網站Reddit的成人交流社區第一次亮相,就一下子引起了很大的震動。
  • 《連線》:AI生成的文字將是最可怕的Deepfake內容
    但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智慧生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為網際網路上一股無孔不入的力量:deepfake文字。《連線》稱,上個月推出的GPT-3是生成式寫作的下一個前沿:一個可以產生令人震驚的句子的AI。
  • 又來搞怪 輕鬆製作怪異的Deepfake模因
    據外媒Techspot報導,一種新的時尚正在席捲社交媒體, 尤其是出現在TikTok上的一種怪異的deepfake模因。這些「病毒式」視頻中,各種知名和不知名的人物都在唱 "Baka Mitai",這是一首在一些Yakuza電子遊戲中聽到的Karioki歌曲。
  • 與假視頻死磕到底!谷歌 AI 開源 Deepfake 檢測數據集,3000+ 真人...
    雷鋒網 AI 開發者按:在不久前,Facebook 發起了 Deepfakes 檢測挑戰賽;而近日,谷歌 AI 就跟著強勢推出了 Deepfake 視頻檢測數據集,勢將一同與假視頻死磕到底。(Deepfakes 檢測挑戰賽詳情:https://www.leiphone.com/news/201909/2T95wJf5RRTycmkT.html?
  • 讓眾女星躺槍的deepfake到底是什麼
    Desde hace unos años los videos "deepfake" se utilizan para humillar a las mujeres dentro y fuera de la escena pública
  • Deepfake究竟是造福人類還是一個詛咒呢?
    不過,在國外,網友們多是利用deepfake技術來惡搞政壇人物,而非大牌明星。程式設計師可以換臉歐巴馬,用歐巴馬的口吻談論國事。在初期,少數了解deepfake技術的精英們,為了傳播deepfake技術,創辦了這個論壇,不僅滿足了自己的成就感,也贏得了網友們的尊重。不過,久而久之,網友們在討論學習的過程中,也發現deepfake技術的黑暗面——可以滿足自己的私慾、性幻想,網友們將自己「夢中情人」的面龐,放到了各色視頻中。
  • 人怕出名豬怕壯,出名之後怕Deepfake
    古話說的"人怕出名豬怕壯",現今恐怕有了續集——人怕出名豬怕壯,出名之後怕deepfake。今年年初,受此困擾的是世界上被拍照次數最多的名人之一阿湯哥。你能分辨出下圖中哪個是真的阿湯哥嗎?這一點也解釋了為什麼早期躥紅網絡的deepfake作品多以名人為主。因此,也有人看到了這樣一種未來:GAN代表著"AI創造力"的崛起。不止盧卡斯影業,隨著用於GAN算法變得越來越強大,創新者們及一眾Deepfake 軟體初創公司正爭先恐後地尋找利用該技術"向善"的一面來改變行業的途徑。色情和政治虛假宣傳生成作為deepfake的殺手應用,該翻篇了。
  • 為什麼我們對deepfake技術又愛又恨?| 有機社會·Post
    Topic:為什麼我們對deepfake技術又愛又恨?Deefake到底是什麼?即便你對這個近來AI界頻頻出現的熱詞不夠了解,對「AI換臉」也一定不陌生。從國外的惡搞歐巴馬、蓋爾加朵,到國內的朱茵換臉楊冪、以及ZAO App的曇花一現。
  • ...的第一個大規模應用:色情機器人|機器人|deepnude|deepfake|...
    但是直到最近,深度偽造技術才有了第一個大規模應用:深度偽造色情機器人(DeepNude)。根據英國Wired雜誌報導,自今年7月份以來,至少有10.4萬名婦女受到即時通訊應用Telegram上運行的深度偽造機器人DeepNude的攻擊,受害人數之多令人震驚。每個月都有成千上萬的人使用DeepNude來創建朋友和家人的裸照,其中一些人不到18歲。
  • Kaggle Deepfake競賽|換臉圖像、AI換臉視頻、高仿語音版Deepfake,這項開掛的技術未來還能走多遠?(3/3)
    而DeepNude的火爆程度同樣引起了小編的深思:如此受譴責的技術竟能引起這麼多用戶的下載使用,DeepNude火爆全球的背後,究竟普通民眾對這項技術的態度又是怎樣的呢?調查發現,普通民眾的態度令人大吃一驚:與這些官方或者公眾平臺的態度相反的是,許多人對於deepfake技術有一種盲目樂觀的觀點,即技術進步必然是好的。
  • 用deepfake拍電影可以安排了:迪士尼發布首個百萬像素高解析度換臉算法
    最流行的開源deepfake模型DeepFakeLab,在今年的更新中,最大解析度也只達到了320×320。而這隻來自迪士尼和ETHZ的全新deepfake,在保持高度流暢這一優良傳統的同時,還一舉把解析度拉高到了1024×1024的水平。這也是deepfake的解析度水平首次達到百萬像素。
  • Deepfake誕生三周年,人類已無法阻止AI換臉
    原來,這是小玉為了向民眾呼籲假新聞的風險,而利用Deepfake技術所製造出來的假影片。該影片很快就上了熱門影片排行,掀起網友熱議。 Deepfake是一種透過人工智慧(AI)中的deep learning(深度學習)技術所創造出的fake(偽造)信息。Deepfake技術可以用於影像及聲音,只需要仿造對象的人物影音素材,就能製造出唯妙唯肖的假影片。
  • Deepfake這一年:月均被搜10萬次,小電影產業大豐收,寡姐欲哭無淚
    比如,2018年「deepfake」關鍵詞的谷歌搜索次數,比2017年增長了1000倍。搜索,不止是次數剛才提到的,deepfake谷歌搜索次數1,000倍噴發,只是最表層的現象。畢竟,全面刪除行動也會有漏網之魚。另外,還有專門提供Deepfake小電影的成人網站,這些站點裡Deepfake視頻數量是:
  • 黑科技DeepFake,上線五天就遭全球唾棄,這技術到底有多邪惡?
    而且這項技術真的是剛需,因為在初期野蠻發展的這段時間裡,以Deepfake技術代碼的APP製作的視頻中,有96%都涉及色情,當然娛樂圈的公眾人物妥妥的成了首選對象! ,而特徵包括面部特徵和身體姿勢的關鍵特性,並且還有專門針對目標特徵採樣建模的訓練模型,這意味著只要採樣足夠多的數據,那麼將會建立出更逼真的模擬對象!
  • 「DeepFake" ,當眼見不再為實,你還能相信什麼?
    When seeing is no longer believingInside the Pentagon’s race against deepfakevideosAdvances in artificial intelligence could soon make creating convincing fake audio and video – known as 「deepfakes」 – relatively easy.
  • 一文了解Deepfake 2020發展現狀
    自2017年,某Reddit用戶首次將其用來偽造色情視頻開始,Deepfake造假已逐漸滲透到政治、媒體等多個領域,甚至還威脅到了今年的美國總統大選。與此同時,偽造品的數量也在逐年增長,特別是在2020年再次創下歷史新高,達到49081個。那麼,快速增長的Deepfake有哪些特點,背後有哪些應對措施?近些年,計算機視覺技術得到飛速發展。
  • 朱茵變楊冪——FakeApp 破解版 換臉簡易教程,附圖文安裝和視頻地址
    不止朱茵變楊冪從換臉程序deepfake傳入國內開始,就有不少網友製作過換臉視頻。比如把宅男們喜聞樂見的女主播換成國內當紅小花。已經出現一年多,造出了無數假視頻。門檻並不算高,甚至都不用自己訓練一個deepfake模型,有現成的程序用。2018年1月,有人推出了Windows程序FakeApp,允許用戶很輕鬆地自製換臉視頻,即使沒有任何AI方面的知識,大大降低了deepfake的使用門檻。FakeApp只需要一個包含Nvidia GPU的個人電腦、3~4GB的存儲空間,就能生成換臉視頻。
  • 商湯入局圍剿Deepfake:推出迄今最大人臉偽造檢測數據集
    魚羊 發自 凹非寺量子位 報導 | 公眾號 QbitAI反deepfake陣營今日又有新成果,商湯入局,獻出迄今最大檢測數據集:包含60000個視頻,共計1760萬幀,是現有同類數據集的10倍。deepfake進化了一版又一版,效果越來越逼真,門檻卻越來越低。
  • 音頻版Deepfake詐騙案正在興起,專家:需警惕
    為了應對Deepfake換臉技術帶來的種種風險,2019 年,Facebook 斥巨資發起「Deepfake 檢測挑戰賽」,這項挑戰賽一直延續到現在,其識別準確率已經達到了82.56%。不過,令人擔憂的是,有人又將虛假的矛頭指向了Deepfake語音。有報導稱,一家英國能源公司被敲詐了24萬美元,其背後正是利用的音頻版Deepfake技術。
  • 向Deepfake 宣戰!
    Deepfake,這一 AI 領域的「大毒瘤」,正在引起越來越多來自行業的反擊。當地時間 2020 年 1 月 6 日,Facebook 全球政策管理副總裁 Monika Bickert 在博客中表示,Facebook 將刪除滿足其標準的 Deepfake 視頻。