找到那張假照片,對抗Deepfake之路

2021-01-17 澎湃新聞

原創 子佩 智東西

謠言止於FakeCatcher。

編譯 | 子珮

智東西1月13日消息,隨著Deepfake等一鍵式換臉應用的流行,越來越多的普通人也能通過簡單的操作對視頻中人像、甚至聲音進行修改,達到以假亂真的地步。但在有趣的背後,也有助長謠言、侵犯隱私的隱患。

2019年1月,賓厄姆頓大學曾與英特爾合作推出視頻圖片檢測工具FakeCatcher。而在今年八月份,研究人員又發表《基於生物信號殘留物進行深層合成圖片檢測(How Do the Hearts of Deep Fakes Beat? Deep Fake Source Detection via Interpreting Residuals with Biological Signals)》,準確率可以達到97.29%。

FakeCatcher是如何實現其「打假」功能,是否會導致Deepfake「反打假」以及兩年後FakeCatcher又有什麼新的突破和創新,今天智東西為你一一道來。

論文:https://arxiv.org/abs/2008.11363

01.

Deepfake很全能?心跳、脈搏來「打假」

FakeCatcher基於的原理是人類心跳時產生的細微膚色差異,而具體到應用上,則是與指尖脈搏血氧儀以及Apple Watch用於測量運動心率相同的技術——光電容積描記法(簡稱PPG)。

英特爾高級研究科學家Ilke Demir表示:「我們從面部不同部位提取了幾種PPG信號,並檢測了其時空一致性。在通過深度學習合成的視頻中,心跳信號既沒有一致性,也與脈搏信號沒有任何聯繫。而在真實拍攝的視頻中,人面部的血液流動是會和脈搏,也就是心跳信號保持一致的。」

▲人面部PPG及rPPG信號

與Demir合作的是賓厄姆頓大學計算機科學系的博士Umur A. Ciftci及其導師,圖形和圖像計算實驗室的Lijun Yin教授。該實驗室創建的多個3D人臉和表情資料庫曾被多位好萊塢電影製片人、視頻遊戲創作者用於影視或遊戲項目。

在實驗室中,Ciftci藉助18臺攝像機以及紅外攝像機,建立了全美最先進的生理信號採集設備。在實驗過程中,受試者需要佩戴監測呼吸和心率的設備,30分鐘的數據需要12個小時的計算處理。

Yin說:「Umur做了很多生理數據分析,並用我們第一個多峰資料庫進行了信號處理。我們不僅收集2D、3D可見圖像的數據,也收集熱像儀和生理傳感器的數據。使用生理學特徵去檢測圖像造假將會是以後的新的思路。」

02.

要打「假」,先造「假」

相比起實驗中採集的圖像,Deepfake處理過的「假照片」圖像質量要低很多,這意味著合成的照片和視頻可以更容易被發現。

Ciftci說:「我們會用採集到的生理信號對3D圖像進行處理,合成了一些『假』視頻。和Deepfake不同的是,我們採用真實的受試者的數據並進行處理,而Deepfake則是用網絡中的數據。但如果只是從『假』的層面考慮,並沒有什麼不同。」

「就像警察知道罪犯是怎麼犯案的一樣,如果我們要找到那些假照片,我們就得先知道它們是怎麼製作出來的,甚至當我們自己創造資料庫時,也使用了Deepfake的一些方法。」

▲Lijun Yin(左)和Umur Ciftci(右)在3D掃描實驗室,圖源:Jonathan Cohen

自FakeCatcher發表以來,全球共有27位研究人員在自己的研究中使用了該算法和數據集。但很多人都擔心,如果這些研究成果未來向大眾公開,Deepfake製作者是否有可能通過學習驗偽過程,修改算法以升級Deepfake使合成照片在未來更難被發現。

但Ciftci並不太擔心這一點:「對於不懂生理信號處理的人來說,突破生理信號檢測並非易事。如果沒有重大軟體更新,Deepfake製作者不可能僅僅利用現有技術來實現這一目標。」

03.

除了能「打假」,還能拍電影

英特爾參與FakeCatcher很大原因是基於對容積捕獲的興趣,也就是用多個攝像機全方位捕捉同一個人物的信息,並將其結合創建一個可以無縫置於任何環境的三維模型,這將對AR和VR具有重大意義。

英特爾稱正進行世界上最大的容積捕獲實驗:在10000平方英尺的網格狀球頂下裝有100個攝像機,場地可同時容納約30人,受試者甚至可以騎幾匹馬。

▲英特爾實驗場地

通過編譯FakeCatcher數據並對其進行逆向工程,英特爾希望結合真實的生物信息,製作出更逼真的效果圖。

英特爾未來的計劃包括將容積捕獲技術運用在電視節目、體育賽事和增強現實中,使觀眾可以沉浸在這些場景中。除此之外,英特爾也會涉足3D、VR電影製作,近期在威尼斯電影節上也有英特爾參與的VR項目正在首映。

Demir表示英特爾正在從以晶片為中心轉變,向AI、邊緣計算和數據靠近,盡一切可能發掘AI在自身業務上的應用。」

04.

「打假」無止境,FakeCatcher再進步

在今年八月發表的論文中,Demir等人利用生物信號殘差提出了一種深層的偽造源檢測模型,不僅檢測偽造視頻的準確率可以達到97.29%,在推斷偽造視頻背後的生成模型上,準確率也達到了93.39%。

因為用於檢測心跳、血液流動等生理變化的PPG信號難以模仿,至今還沒有生成模型可以創建出PPG信號一致的偽造視頻。所以研究人員不僅可以通過PPG信號的不一致找出偽造的視頻,還能通過PPG信號之間的殘差找到偽造視頻背後的生成模型。

研究人員從臉部不同位置,通過幀窗口從視頻中提取32種原始PPG信號,再將信號及其頻譜密度編碼為一個時空塊,即所謂的PPG單元。PPG單元再通過神經網絡處理後,可以識別源生成模型的不同殘差的特徵。最後,使用機率平均對數將每個特徵序列合併為預測每個視頻背後的生成模型。

▲Deepfake檢測流程

05.

結語:產學研合作,瞄準基準數據集

大量偽造的視頻及圖像在網絡及社交媒體上廣泛傳播,所以設計基準數據集以用於深度檢測研究更加迫切。研究人員表示下一階段,他們將創建包含PPG信號的新數據集,以向這一目標再邁一步。

Yin也表示,希望在未來能繼續和英特爾合作,讓研究成果不僅在學術界有所影響,在業界也能得到實際應用。

來源:Tech Xplore

(本文系網易新聞•網易號特色內容激勵計劃籤約帳號【智東西】原創內容,未經帳號授權,禁止隨意轉載。)

原標題:《找到那張假照片!對抗Deepfake之路》

閱讀原文

相關焦點

  • 哪張臉是真的?研究人員用頻率分析來識別Deep-Fake圖像 算法造圖會...
    在人工智慧和Deep-Fake日益盛行的放下,不少照片看似真實,但實際上是由電腦製作的。不過這些圖像已經相當具有欺騙性——所謂的深度假圖像是由機器學習算法生成的,人類幾乎無法將它們與真實照片區分開來。Horst Görtz Institute的的研究人員和「大規模對手時代的網絡安全」(Casa)卓越集群開發了一種有效識別深度偽造圖像的新方法。
  • 什麼是Deepfake?為什麼Deepfake生成的假臉會這麼自然?
    Deepfake當前的缺陷是沒法找到足夠閉著眼睛的圖像 隨著2018年年中將近,美國大選活動也開始逐漸升溫,在諸多宣傳中,一種新形式的虛假信息開始在社交媒體上廣泛傳播。這種生成虛假視頻的技術叫做「Deepfake」,它能把視頻中的臉換成其他人的臉,同時保持臉部肌肉運動和諧,口型和聲音匹配。 結合政治宣傳,這意味著任何人都能「惡搞」候選人,製作他們「演講」「活動」的假視頻。 由於這項技術十分新穎,效果又格外出色,普通人如果不仔細看,可能無法分辨真實視頻和虛假視頻之間的區別。
  • 新研究訓練小老鼠充當分類器識別Deepfake假聲音,比計算機更靠譜
    因為"Deepfake"的出現,我們再也不能相信「眼見為實」。近來,專家們非常擔心"Deepfake"類產品的發展速度。通過"Deepfake"應用,計算機可以對數百份照片或錄音進行採樣合成,偽造一些人們沒有說過的錄音或是照片。
  • 社交網絡上的圖正被Deepfake機器人用來生成果體照
    別有用心的人,正在盯著你放在社交網絡上的美照,還可能已經被Deepfake拿去生成果照。 關注Deepfake傳播的研究機構「Sensity」發現,截至到2020年7月,在Telegram公共頻道中已經生成並分享了超過10萬張。 這意味著,生成的圖片總數,包括那些未曾分享過、或是7月以來製作的照片,是遠遠高於這個數字的。 Sensity表示,這些頻道中的大部分用戶,大概有70%來自俄羅斯和周邊國家。
  • 《連線》雜誌:AI生成的文字將是最可怕的Deepfake內容
    但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智慧生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為網際網路上一股無孔不入的力量:deepfake文字。《連線》稱,上個月推出的GPT-3是生成式寫作的下一個前沿:一個可以產生令人震驚的句子的AI。
  • 一個模型擊潰12種AI造假,各種GAN與Deepfake都陣亡
    最新研究發現,只要用讓AI學會鑑別某一隻GAN生成的假圖片,它就掌握了鑑別各種假圖的能力。不論是GAN生成的,Deepfake的,超解析度的,還是怎樣得來的,只要是AI合成圖片,都可以拿一個通用的模型檢測出來。儘管各種CNN的原理架構完全不同,但是並不影響檢測器發現造假的通病。
  • deepfake會通過模擬和翻轉,影響聲音的合成
    第一次見這種標題的消息,就看到說deepfake被曝光但是我本人真的覺得。電影和遊戲還是不要用這種方式更好。確定嗎?這次的事件已經是第四次傳言deepfake,但是得到的回覆都是"很久之前就出現過,但是估計是黃牛炒作"云云。但是這不是重點,重點是這次python等一些軟體已經可以做到將圖片翻轉後,替換聲音、圖像,還原出聲音。
  • DeepFake檢測新思路:用心跳做"信號",背後的"造假"模型也無處可逃
    更為具體一點,能區分真人和照片的技術叫做liveness detection,中文叫做「活體取證」。當前的技術主要是根據解析度、三維信息、眼動等來區分,因為翻拍的照片解析度比直接從真人上採集的照片在質量、解析度上有差別。
  • 帶你解析2020 Kaggle DeepFake 排行榜前1.5%技術方案
    Deepfake -假視頻檢測截圖來自kaggle官網最近的2020 Deepfake假視頻檢測挑戰賽,旨在幫助世界各地的研究人員檢測線上視頻及語音是否被偽造和篡改,幫助提升線上人權和保護網絡上個人隱私。
  • 想用GAN和Deepfake瞞天過海,沒那麼容易:這是Adobe和加州伯克利的...
    或許,GAN 和 Deepfake 在「瞞天過海」上也不是萬能的。近來,諸如生成對抗網絡(GAN)的深度圖像生成技術快速發展,引發了公眾的廣泛關注和興趣,但這也使人們擔心,我們會逐漸走入一個無法分辨圖像真實與否的世界。這種擔憂尤其體現在一些特定的圖像操縱技術上,例如用來進行面部風格替換的「Deepfake」,以及逼真的人像生成。
  • 用生物信號檢測Deepfake,這個新方法會很快失效嗎?
    讓 Deepfake 越來越逼真的一個核心技術是 GAN(Generative Adversarial Network),也就是生成對抗網絡。它的原理類似左右手互博 —— 生成器生成假視頻,鑑別器用以鑑別真偽,以此不斷提高造假的質量。正因如此,檢測 Deepfake 的方法很容易被超越。比如在 2018 年,就有研究通過人物的眨眼是否自然來判斷視頻的真偽。
  • I am so sorry, 那是一張假的黑洞照片
    4月10日,EHT團隊發布了一張人類歷史上第一張黑洞圖片,這個黑洞(Messier 87)位於離地球5千5百萬光年之外的地方,全球各種媒體包括無數愛好者瘋狂傳播,視覺中國甚至對這張圖片聲明了版權
  • Deepfake陰影下的「人臉識別時代」全面到來!我們可能遭遇什麼危險?
    小探記得,就在去年年底,矽谷人工智慧公司Kneron曾表示該公司使用Deepfake(深度欺騙)技術成功欺騙了支付寶和微信的支付程序,並且順利通過進入機場、火車站等自助終端的檢驗。那麼,現在全面鋪開人臉識別技術有必要嗎??我們正在進入的「人臉時代」真的安全嗎?
  • 黑科技DeepFake,上線五天就遭全球唾棄,這技術到底有多邪惡?
    這愛因斯坦如假包換,如果他說的不是新冠病毒的話,連種花家都要信了!對了,這就是DeepFake所展現的超級換臉技術,配合製作者高超的視頻特效手法,復活名人、以假亂真不過是雕蟲小技而已!DeepFakes對於Reddit官方的封禁極度不滿,為報復Reddit官方封禁,直接在Github將Deepfake技術的AI代碼免費公開!
  • 你看到的不一定是真相——12張流傳最廣的假照片
    這些都是世界上流傳最廣的假圖片,你可能不會相信它們是假的,不過你還是看看後面的證據再說吧,有時候見到的不一定是真實的。 3、一名敘利亞男孩在父母的墳墓之間睡覺 傳言:這張照片是一名生活在沙烏地阿拉伯的美國穆斯林信徒發在推特帳號的
  • 找到蟲洞就能穿越時空?那這位自稱來自火星的女子,是真是假?
    找到蟲洞就能穿越時空?那這位自稱來自火星的女子,是真是假? 曾經有一位女子自稱來自3800年前的火星,為了證實她說的話是真的,還拿出一張照片,這張照片記錄火星的面貌