破局「眼見為假」:誰在反Deepfakes?

2020-12-24 鈦媒體APP

圖片來源@unsplash

文|腦極體

我們真的在追求「真」麼?

這幾乎是一個完全無法驗證的玄學問題。而我們卻很誠實地在做一些「去真存假」的事情。比如為照片添加濾鏡、為自拍磨皮美白、為視頻增添特效。再比如,我們興致盎然地把自己的臉替換到夢想中的明星身上。

看來追求「真實自我」其實成了一種自欺,而騙過眼睛讓大腦愉悅才是人們「真香」的追求,至少在視覺層面尤為明顯。以前,當我們說到「以假亂真」、「惟妙惟肖」這些字眼的時候,往往帶有一種對藝術的敬意,因為這意味著常人難以實現的難度和巨大的成本。

然而,隨著人工智慧中GAN(對抗式生成網絡)的進化,讓靜態圖像、音視頻中人物生成變得日益逼真且廉價,類似Deepfakes這類AI換臉技術普及後,那麼問題真的就來了。

2017年,一個名為「DeepFakes」的開發者把AI換臉技術開源,打開了AI造假的潘多拉盒子。Deepfakes成為了這一技術的專有名詞。2019年初,隨著一段「楊冪換臉朱茵」的視頻火爆網絡,又開啟了中國的AI換臉元年。緊隨其後,各類AI換臉作品和應用不斷出現,AI換臉隨著普通人的 「嘗鮮」徹底走向了技術普及和產業失控。

首先,最顯著的影響就是AI換臉所掀起的一場色情視頻造假的黑產狂歡。不僅針對公眾人物、明星,甚至於只要在社交媒體多次上傳自拍照,每個人都要面對這一威脅。

更嚴重的是對於政治選舉、公共安全以及經濟體系的威脅。一段關於政客受傷、重病的假視頻可能引起國內的金融動蕩甚至嚴重衝突。一段假冒權威人士發布恐怖襲擊、疾病災害等假消息的視頻會引起群眾恐慌甚至暴力衝突。

最為深遠的影響就是對於整個社會公信力的影響。越來越多的人從社交媒體獲得第一手信息。假視頻泛濫讓信息真偽難辨,比如刻意偽造的假新聞,模仿領導人、權威專家的權威信息。數以億計沒有專業辨識能力的普羅大眾會更容易輕信而被欺騙,引發更大的公信力危機。

無限遊戲:擊敗Deepfakes的AI檢測技術困境

由技術引發的災難只能由更先進的技術來解決,這似乎是AI研究者的唯一邏輯。AI換臉的造假檢測技術,似乎成為這場技術困境突圍的最佳解決方案。

但由於AI換臉的驗證檢測技術具有嚴重依賴以往模型的反應機制,即當前方法無法檢測新的Deepfakes算法。因此,AI換臉的檢測技術與造假技術將長期處在攻防賽狀態。

最早向Deepfakes發難的是美國國防部DAPRA。早在2018年5月,他們就設立了「媒體鑑證」項目,並與紐約州立大學開發出一款「反換臉」AI刑偵工具,通過有效地預測眼睛是否眨動的狀態,當時準確率達到 99%。然而這款工具還沒推廣就失效了,因為Deepfakes技術進化了。

2019年6月,加州大學伯克利分校和南加州大學的研究人員打造的AI檢測系統構建了高度個人化的「軟生物識別指標」,對於當時的假視頻的總體識別率超過了95%。但該技術也存在一些破綻,面臨被新的Deepfake算法反制的挑戰。

因此,這場攻防戰的第一個困境就是技術演進的悖論。研究人員如果要提出一個更好的檢測技術之前,必須提出一種能夠勝過當前市面上流行的AI換臉技術的新方法。也就是說,就要先造出更鋒利的「矛」,才能有資格造出更可靠的「盾」。

因為即使研究人員不如此做,隨著AI算力越發易得,GAN算法的不斷增強,AI換臉技術也在不斷升級完善。比如,近期英偉達公開了第二代人臉生成算法StyleGAN2的原始碼,它可以根據五官、發色生成自定義風格的人臉圖像。基於StyleGAN2也可以結合多張人臉圖像進行人臉融合,生成的合成圖像同時具備模板圖像特徵與目標圖像特徵,已經達到騙過眾多人臉識別系統的程度。

第二個困境就是對抗AI造假的數據合法性的牽制。雖然網絡黑產有著龐大的Deepfakes假視頻數據,但因其違法和侵權屬性不可能用於研究。而AI換臉檢測需要大量的原始目標人臉以及替換後的人臉數據,因此,研究團隊必須花費時間和巨大成本創建合規的數據集。

這一嘗試已經開始,2019年初,來自德國和義大利兩所大學的AI研究者基於YouTube視頻生成了一段包含1000段假視頻的FaceForensics++數據集,用於訓練鑑別造假視頻的神經網絡。9月底,谷歌宣布開源的包含3000段真假視頻的大型 Deepfakes 數據集,納入FaceForensics基準當中,供研究社區免費獲取並用於開發合成視頻檢測方法。

面對當前這兩種技術困境,AI研究者有哪些方法可以應對呢?

釜底抽薪與飽和攻擊: AI換臉檢測解題新思路

近日,來自中國的兩個研究團隊給出了不同的解決以上技術困境的解決方案。一種方案類似釜底抽薪,即針對AI換臉的底層邏輯去開發新的算法,即使不需要更多的數據,也能取得很好的驗證效果。

另一種解決方案則類似飽和攻擊,他們從現有的數據集為基礎,將數據集擴充到一個新的更大規模、更高質量的程度,從而應對更多樣化的人臉造假視頻的檢測。

2020年1月,來自微軟研究院與北京大學的研究小組共同提出了一種全新的 AI 換臉框架FaceShifter,以及一種檢測偽造人臉圖像的方法Face X-Ray。前者可以極大提高換臉的高保真度,而後者則用於檢測出複雜偽造人臉圖像。

FaceShifter生成的高保真度換臉圖像,可以很好保留目標人臉的頭部姿態、面部表情、光線、顏色、強度、背景以及其他遮擋物。其優勢之處在於該模型無需人工標註數據的訓練下即可生成任何人臉。

簡單來說,FaceShifter與之前的AI換臉方法相比,效果表現更優異。那這意味著,研究者同時提出的人臉造假的檢測工具必須更加強悍。

為此,Face X-ray提出了一種全新的人臉偽造的圖像檢測方法。它通過顯示偽造圖像的混合邊界和真實圖像沒有混合來實現是否存在造假的檢測。這一方法就像是給被檢測的圖像拍攝了一張X光片一樣,讓其混合輪廓顯露原型。

同時,相較於之前有監督的人臉檢測方法會存在過度擬合的問題,Face X-Ray不需要依賴於與特定人臉操作技術相關的偽造圖像的知識。由於是無監督訓練,它的算法可以支持在不使用任何方法生成假圖像知識的情況下進行訓練。因此,它可以從更通用性的意義上來進行有效檢測。

Face X-Ray在人臉造假的圖像檢測上採取了一種更根本的解決問題的思路,即我們與其知道一個圖像是如何造假,不如知道一個圖像如何才是真的。Face X-Ray的解題邏輯就是:真圖像不會合成。

但可以預見的是AI換臉的技術演化也不會停步。比如說,AI換臉本身不再是A、B兩個面部圖像的混合疊加,而就是人臉生成算法基於A、B面部特徵的直接生成新的一張面孔C。這樣Face X-Ray也面臨失效的嚴峻考驗。

緊接著,商湯科技也加入這場攻防賽,他們則採用了類似飽和攻擊的戰術。據報導,商湯聯手新加坡南洋理工,推出了迄今為止最大的Deepfakes檢測數據集,DeeperForensics-1.0。該數據集包含60000個視頻,是現有同類數據集的10倍。

研究者意識到,之前數據集中的視頻存在著數量少、質量低以及過於人為化的特點;同時在一些假視頻檢測中,訓練視頻和測試視頻存在高度相似性,這些讓人臉造假檢測的實際效力有待檢驗。所以,他們提出的解決方案就是提供一個儘可能包含了潛在變化的真實世界詳儘可能的數據集,用於增強人臉造假檢測模型的打造。當然,最終結果也驗證了質量好、數據量大、多樣性高的數據集可以明顯提高視頻人臉偽造的基準測試結果。

在這個信奉暴力計算的時代,商湯實力演繹了一次「大力出奇蹟」的策略,用飽和攻擊的方式去迎戰Deepfakes層出不窮的狡計,而這一工作確實給後面的研究者提供了研究的便利。

目前,AI換臉的檢測技術仍是少數研究機構的實驗品。但隨著AI換臉技術的日臻完善,社交媒體以及眾多網際網路平臺如何利用AI檢測工具做好換臉圖像以及假視頻的甄別,已經是迫在眉睫的事情。

被技術重塑的未來:反Deepfakes的商業化可能

AI換臉帶來的技術挑戰,除了以上AI研究機構和研究者的努力,還需要更多利益相關方的參與和支持。

正如同這場「對抗賽」並非來自實驗室中華山論劍,背後還有像Facebook、Twitter、YouTube、這類平臺型機構,作為支持者和主導者。

比如,去年9月,Facebook宣布啟動一項「Deepfakes視頻檢測挑戰賽」(DFDC),懸賞1000萬美元以期找到有效檢測利用Deepfakes技術生成的假視頻的方案。大賽提供一個數據集和排行榜,通過撥款和獎勵方式以刺激行業創造新的檢測工具,從而防止被AI操縱的媒體誤導普通用戶。這無疑給中小AI研究機構很大的鼓勵和資金支持。

要說其背後原因,自然是因為社交媒體是造假視頻傳播的主要陣地,也是放大其不良影響的重要因素。人們常說造謠一張嘴、闢謠跑斷腿,當Deepfakes製造的虛假視頻在Facebook、Twitter上瘋狂傳播時,就已經造成了不可挽回的損失。而苦主想要追責時,第一步要做的就是問責平臺方。為了保證平臺上內容的真實可控,社交媒體企業必然要找到Deepfakes視頻的甄別方式。

因為Deepfakes帶來的負面效應與名人政客、社交媒體平臺有著切實的利益關聯,所以Deepfakes檢測技術也有著很明晰的商業前景。例如在未來,社交媒體採購Deepfakes甄別技術,將其加入平臺視頻發布審核流程當中,很可能會成為一種常態。同時面對假視頻泛濫的情況,或許還有可能出現權威的「視頻檢驗機構」,幫助受害者證實視頻的真假。

更重要的是,AI換臉代表的造假技術的狂潮不可逆轉,我們也必須學會更好地適應這一趨勢。就像PS的普及讓我們對圖像的造假已經基本免疫一樣,AI造假視頻的普及也會讓人們逐漸適應,只不過,對於大多數人而言,需要付出的學習成本和認知轉變的成本有些高昂。在這一過程中,不論是技術開發者還是傳播平臺,都有責任向用戶進行宣教。

當「眼見為實」的邊界真正被打破,我們看待世界的規則需要重新被塑造。首先,向大眾普及Deepfake這項技術也變得非常重要。就如同身體對抗病毒的最好方式,就是通過注射疫苗先增強身體的抵抗力。其次,當人們意識到眼見的一切視頻都有可能為假的時候,人們又可能會更重視有公信力和權威性的媒體信息平臺。

這也許是「眼見為假」時代帶給人們的更多的文明副產品之一。

相關焦點

  • 「假靳東」事件背後的Deepfakes,究竟是何方妖術?
    前段時間,「假靳東」事件鬧的沸沸揚揚,騙子利用「換臉術」偽裝成靳東,引得六旬女子鬧離婚嫁靳東。其實,這已經不是Deepfakes第一次大顯神通了。自2017年以來,以Deepfakes技術為支撐的語音詐騙事件就已經在世界範圍內引發了廣泛關注。
  • Rethink Deepfakes,淺談深度學習落地
    本文為兔子老大為雷鋒網(公眾號:雷鋒網) AI 科技評論撰寫的獨家稿件,未經許可禁止轉載。借著這兩件事,誕生於 2017 年末的,後又被封禁 Reddit 討論區的 deepfakes 再度進入我們的視野中,那麼時隔一年,deepfakes 此刻又取得了什麼進展?除了 Deepfakes 外,另外一個熱點話題就是關於深度學習在工程上的落地問題。本文希望通過 deepfakes 從初版到現在版本的演變,來思考一下深度學習的落地和發論文之間,存在著什麼差異。
  • 讓總統跳舞,讓偶像下海,靠的是叫「Deepfakes」的換臉黑科技
    而今天提到的這個稱為deepfakes的技術同樣曾讓業內人士嘆為觀止。或許你還沒聽到過「Deepfakes」這個詞,不過你肯定看過一些搞怪視頻,比如歐巴馬一言不合就跳舞,還有他「強悍」地踹門而入。另外還有一些老司機,午夜夢回的時候總想找老師們聊聊天,偶然搜索deepfakes的話,竟然發現有些視頻裡,自己日思夜想的女神竟然開始轉行當起了「老師」!這一切的背後,基本都源於這個叫做deepfakes的換臉技術。
  • 如何用Deepfakes把「吳秀波」的臉換掉
    網傳浙江衛視《王牌對王牌》的P圖技術這個時候,文摘菌特別想為北京衛視安利一波最近大火的換臉技術 -Deep fakes,給帶有吳秀波的視頻一鍵「換臉」。Deep fakes 是一種使用AI深度學習,能夠將一張圖片中人的臉換到其他人的圖片上的技術。通過這種技術,我們可以創建一個非常逼真的「假」視頻或圖片,「換臉」因此得名。研究人員使用自動編碼器神經結構,使這一想法成為現實。基本思路非常簡單:對於每張臉,我們都訓練一套編碼器和相應的解碼神經網絡。編碼時,使用的是第一個人的圖片。
  • AI 換臉技術——DeepFakes 概述
    2017年12月,一個名為「DeepFakes」的用戶在Reddit上發布了一個「假視頻」,視頻中的藝人其實是後期加上的,但是看起來幾乎毫無破綻
  • 與假視頻死磕到底!谷歌 AI 開源 Deepfake 檢測數據集,3000+ 真人...
    雷鋒網 AI 開發者按:在不久前,Facebook 發起了 Deepfakes 檢測挑戰賽;而近日,谷歌 AI 就跟著強勢推出了 Deepfake 視頻檢測數據集,勢將一同與假視頻死磕到底。(Deepfakes 檢測挑戰賽詳情:https://www.leiphone.com/news/201909/2T95wJf5RRTycmkT.html?
  • 讓眾女星躺槍的deepfake到底是什麼
    Desde hace unos años los videos "deepfake" se utilizan para humillar a las mujeres dentro y fuera de la escena pública
  • 給楊冪換臉的Deepfakes真的沒有未來嗎?
    一時間,從娛樂明星到普羅大眾,談Deepfakes色變。大家紛紛恐懼與類似技術可能帶來的巨大危害。畢竟Deepfakes同時兼具了幾個特質:軟體開源,一年多以前,Deepfakes首度上線了論壇Reddit,因為此機器學習模型能夠把任何視頻中的人臉替換成另一張臉而迅速被技術宅們嘗試起來。
  • 商湯入局圍剿Deepfake:推出迄今最大人臉偽造檢測數據集
    魚羊 發自 凹非寺量子位 報導 | 公眾號 QbitAI反deepfake陣營今日又有新成果,商湯入局,獻出迄今最大檢測數據集:包含60000個視頻,共計1760萬幀,是現有同類數據集的10倍。deepfake進化了一版又一版,效果越來越逼真,門檻卻越來越低。
  • 「DeepFake" ,當眼見不再為實,你還能相信什麼?
    videosAdvances in artificial intelligence could soon make creating convincing fake audio and video – known as 「deepfakes」 – relatively easy.
  • 你用Deepfakes給小電影換個臉,人臉識別AI也看不出來:95%萌混過關
    那麼,人臉識別AI能看出哪些視頻是Deepfakes生成的麼?後面的測試裡,如果置信分高於閾值,AI就判斷為同人。去年12月,一位用戶名為deepfakes的偉人,把一段AI加工的小電影傳上Reddit,原本動作片的女主角,換成了神奇女俠。沒過多久,同名算法也開源了。
  • Kaggle Deepfake競賽|換臉圖像、AI換臉視頻、高仿語音版Deepfake,這項開掛的技術未來還能走多遠?(3/3)
    推特在去年年底,發布了首個反Deepfake的策略草案。推特表示如果Deepfake內容威脅到某人的人身安全或可能造成嚴重傷害,他們會將該內容從推特上刪除。目前,推特已開始就此項草案向公眾徵集意見。Facebook則表示將禁止發布由人工智慧深度操縱的視頻。這是該公司為打擊假視頻而做出的一系列調整中的第一步。
  • Deepfake到底有多可怕?(圖文版)
    然而現在,普通人的照片、視頻也可以輕易地從社交網絡上採集到,所以也許哪天某個奇奇怪怪的網站上,就莫名其妙地有了以你為主角的視頻,讓你在老闆、父母和朋友面前百口莫辯。2. 有人可能會說,這個不過是一個更高級的PS技術,以前也有給人換頭,PS出假照片的,這個新技術能有多大危害呢?
  • Deepfake這一年:月均被搜10萬次,小電影產業大豐收,寡姐欲哭無淚
    在deepfakes小電影 (2017年11月) 從Reddit論壇發跡之前,每月搜索次數只有100次左右。成人產業成人影片,是第一個受到deepfakes技術大力扶植影響的產業。這是廣大用戶對小電影換臉的需求決定的。報告統計了流量排名前10的成人影片網站上,deepfakes視頻的數量:
  • Deepfake究竟是造福人類還是一個詛咒呢?
    △ 如今deepfakes論壇,由於色情視頻、色情復仇、隱私侵犯、戀童癖等問題被Reddit給封禁了這個deepfakes論壇的發展過程,有點像倒過來的馬斯洛需求金字塔除了色情領域的濫用,Deepfake更大的危害,目前在一片歡聲笑語和淫穢視頻中還沒有顯現,就是deepfake這個成本極低的技術,可以篡改視頻證據。視頻、照片已經不能算作真實的依據。一些社交媒體瘋狂的世界,人們無法識別什麼是假新聞。早在2016年,歐洲刑警組織《網絡有組織犯罪威脅評估報告》中,就已經點明了deepfake犯罪將成為趨勢。
  • 進階版換臉技術DeepFakes來了!看川普是如何「模仿」歐巴馬神態的
    至於 Recycle-GAN 這項技術特點,他們將其描述為「無人監督,數據驅動」,它能將一個視頻或者圖片的內容轉換到另一個視頻或圖片裡。這樣的內容轉換任務能夠支持很多應用,包括從一個人的人體運動和面部表情轉換到另一個人上。 先來看川普是如何「模仿」歐巴馬神態的:
  • 有人用AI技術製作了假AV...
    不是,目前為止「deepfakes」已經用這項技術還製作了斯嘉麗·詹森、麥茜·威廉士 、泰勒·斯威夫特(不敢想像她粉絲的絕望)、奧布瑞·普拉扎、艾瑪·沃特森等人「傾情出演」的假AV,並發布在了 Reddit 上。目前這些明星的經紀公司尚未對這些視頻做出評論。(出於安全考慮這裡就不上其他女星的圖了吧...)
  • 終於知道誰是國外AI圈最火的女星了
    最近,有位高手發布了應用「FakeApp」,基於deepfakes的算法添加了一些工具,進一步降低了AI使用的門檻,可以形容為「人人可用」,非常用戶友好了。手握FakeApp,只需輸入1到2條明星臉部的高清視頻,即使你沒有技術背景和編程經驗,也能輕鬆給愛情動作片的主角換臉。還有這種事?有點不敢想。
  • 一鍵「脫衣」的 DeepNude 重現:病毒式傳播,裸照生成僅 1.5 美元...
    在不知情的情況下,超過 68 萬多名女性的假裸照正在以這種方式產生並傳播。近期,總部位於阿姆斯特丹的視覺安全智能公司 Sensity 發現了一個 telegram 上的應用(文摘菌決定不透露這個機器人應用的名字,文章中用 bot 指稱),這個 bot 可以通過 deepfake 程序,創建某個受害者的計算機生成的 「裸照」,並且值得一提的是,只用一張照片,生成效果就相當逼真。
  • DeepFakes天敵來了!伯克利緊急研發「火眼金睛」防偽剋星
    下一步,研究人員還打算通過識別人聲的獨特節奏和特徵,來進一步提高AI識別假視頻的成功率。但目前的實際情況是,Deepfake的發展和改進速度非常快,可能會在2020年之前迎頭趕上,成功欺騙目前的AI識別工具。這可能是一場曠日持久的戰鬥,最終誰會獲勝現在還很難講。深度學習的最新進展使得創建複雜且引人注目的假視頻變得更加容易。