黑科技DeepFake檢測方法:利用心跳做信號,還能「揪出」造假模型

2021-01-11 騰訊網

選自arXiv

作者:Umur Aybars Ciftci等

機器之心編譯

編輯:陳萍

DeepFake 真的可以達到以假亂真的效果嗎?未必。來自賓漢姆頓大學、英特爾公司的研究人員利用心跳做信號判別真假視頻,還能「揪出」背後的生成模型。

偽造人像視頻生成技術給社會帶來了新的威脅,例如利用逼真的偽造圖像和視頻進行政治宣傳、名人模仿、偽造證據以及其他與身份有關的操作。伴隨著這些生成技術的發展,出現了一些被證實有效的 deepfake 檢測方法,這些方法具備較高的分類準確率。然而,目前幾乎沒有任何工作關注 deepfake 視頻的來源(即生成 deepfake 視頻的模型)。

來自賓漢姆頓大學、英特爾公司的研究人員提出了一種方法,利用視頻中的生物信號檢測該視頻是否偽造。該方法不僅可以區分真假視頻,還能夠發現 deepfake 視頻背後的特定生成模型(其中,生成模型是在 DeepFakes、Face2Face、FaceSwap、NeuralTex 中進行選擇)。

一些純粹基於深度學習的方法嘗試使用 CNN 來分類造假視頻,CNN 實際上學習的是生成器的殘差。該研究認為這些殘差包含了更多的信息,可以通過將它們與生物信號分離來揭示偽造細節。觀察結果表明,生物信號中的時空模式可以看作是殘差的代表性投影。為了證明這一觀察結果的合理性,研究人員從真實和虛假視頻中提取 PPG 單元,並將其輸入到當前最優的分類網絡中,以檢測每個視頻的生成模型。

實驗結果表明,該方法對假視頻的檢測準確率為 97.29%,對假視頻背後生成模型的識別準確率為 93.39%。

論文地址:

https://arxiv.org/pdf/2008.11363.pdf

該論文的貢獻如下:

提出一種新型 deepfake 視頻源頭檢測方法,為 deepfake 檢測研究開啟了新的視角;

提出一項新發現:將生成噪聲投影到生物信號空間,可以為每個模型創建唯一標識;

提出一種先進的通用 deepfake 檢測器,在真假視頻分類方面優於現有方法,同時還能預測假視頻背後的生成模型,即源生成模型。

利用生物信號檢測假視頻及其生成模型

生物信號已被證明可以作為真實視頻的真實性標誌,它也被用作 deepfake 檢測的重要生物標誌。正如我們所知,假視頻中的合成人物無法具備與真視頻中人物類似的心跳模式。該研究的關鍵發現基於這一事實:這些生物信號可以被解釋為包含每個模型殘差標識變換的假心跳。這催生了對生物信號的新探索,它們不僅可以用來確定視頻的真實性,還可以對生成該視頻的源模型進行分類。

於是,該研究提出了既能檢測 deepfake 視頻,又能識別源生成模型的系統,如圖 1 所示:

為了連續地捕捉生物信號的特徵,研究人員定義了一種新的時空塊——PPG 單元。該時空塊結合了多種原始的 PPG 信號及其功率譜,並從一個固定的窗口提取。PPG 單元的產生首先需要使用人臉檢測器在每一幀中找到人臉。

第二步是從檢測到的人臉中提取感興趣區域 (ROI)(圖 1d),該區域具有穩定的 PPG 信號。為了有效地提取,研究者使用眼睛和嘴之間的面部區域,以最大限度地增加皮膚暴露。

由於來自人臉不同區域的 PPG 信號之間存在相關性,因此定位 ROI 並測量其相關性成為檢測的關鍵步驟。

第三步需要將非線性 ROI 與矩形圖像對齊。該研究使用 Delaunay triangulation [26],隨後對每個矩形使用非線性仿射變換,從而將每個矩形轉換為校正圖像(rectified image)。

在第四步中,研究者將每個圖像分成 32 個相等大小的正方形,並在 ω 幀大小的固定窗口中計算每個正方形的原始 Chrom-PPG 信號,並且這不會干擾人臉檢測(圖 1e)。然後,計算校正圖像中的 Chrom-PPG,因為它能產生更可靠的 PPG 信號。對於每個窗口,現在有 ω × 32 個原始 PPG 值。

現在將它們重組成 32 行、ω 列的矩陣,就形成了 PPG 單元的基礎,如圖 1f 和圖 2 最下面一行的上半部分所示。

最後一步將頻域信息添加到 PPG 單元。計算窗口中每個原始 PPG 值的功率譜密度,並將其縮放到 ω 大小。

圖 2 的最下面一行顯示了從同一個窗口生成的 deepfake PPG 單元示例,第一行是每個窗口的示例幀。

定義完 PPG 單元後,研究者展示了其主要假設:將 deepfake 生成器的殘差投影到生物信號空間,可以創造一個獨特的模式,並用於檢測 deepfake 背後的源生成模型。

實驗

該研究提出的系統採用 Python 語言實現,使用 OpenFace 庫進行人臉檢測,OpenCV 進行圖像處理,使用 Keras 實現神經網絡。

表 1 列出了在測試集上的 PPG 單元分類結果,其中 VGG19 在區分 4 種不同生成模型和檢測 FaceForensics++(FF)真實視頻方面達到了最高準確率(圖 1f)。像 DenseNet 和 MobileNet 這樣的複雜網絡由於過擬合,雖然達到了非常高的訓練準確率,但在測試集上的效果不如人意。

在視頻分類方面,表 2 記錄了過程中的不同投票方案。研究者設置 ω=128,比較了使用大多數投票、最高平均概率、兩個最高平均概率以及對數機率平均後 VGG19 的單元預測結果。

如圖 3 所示,該方法對五類 FF(1 個真視頻和 4 個假視頻)的真實視頻檢測率為 97.3%,對生成模型的檢測準確率至少為 81.9%。

研究人員在不同的設置上進行訓練和測試:1)訓練集中沒有真實的視頻;2)PPG 單元中沒有功率譜;3)沒有生物信號;4)使用全幀而不是面部 ROI,其中 ω = 64,FF 數據集分割設為常數。結果見表 3:

使用前述設置,用不同的窗口大小 ω = 幀來測試該論文提出的方法。結果參見下表 4:

為了證明該論文提出的方法可以擴展到新模型,研究人員將 FF 設置與單個生成器數據集 CelebDF 相結合併重複分析過程。該研究提出的方法在整個數據集上達到了 93.69% 的檢測準確率,在 CelebDF 數據集上達到了 92.17% 的檢測準確率,這表明該方法可以泛化到新模型(參見表 5)。

表 6 列出了測試集上不同模型的準確率。由結果可知,該論文提出的方法甚至超過了最複雜的網絡 Xception,準確率高出 10%。

如何根據任務需求搭配恰當類型的資料庫?

在AWS推出的白皮書《進入專用資料庫時代》中,介紹了8種資料庫類型:關係、鍵值、文檔、內存中、關係圖、時間序列、分類帳、領域寬列,並逐一分析了每種類型的優勢、挑戰與主要使用案例。

相關焦點

  • DeepFake檢測新思路:用心跳做「信號」,背後的「造假」模型也無處...
    除此之外,這種方法還能識別出假視頻背後的生成模型。其中,生成模型的判斷是在DeepFakes、Face2Face、FaceSwap、NeuralTex中做「選擇題」。 進過實驗,該方法對假視頻的檢測準確率為97.29%,對假視頻背後生成模型的識別準確率93.39%。
  • 用生物信號檢測Deepfake,這個新方法會很快失效嗎?
    讓 Deepfake 越來越逼真的一個核心技術是 GAN(Generative Adversarial Network),也就是生成對抗網絡。它的原理類似左右手互博 —— 生成器生成假視頻,鑑別器用以鑑別真偽,以此不斷提高造假的質量。正因如此,檢測 Deepfake 的方法很容易被超越。
  • AI黑科技之換臉Deepfake的善、惡、醜
    這都是拜最新的黑科技技術deepfake所賜。造「假」的生成對抗網絡Deepfake是深度學習和造假技術的結合。>但是,Deepfake就像計算機病毒一樣:只要有人找到了檢測它們的方法,另一個人就會找到解決辦法。
  • Deepfake技術被稱現代網絡「易容術」 AI換臉如何打假「李鬼」
    翁仲銘解釋,這包括兩個機器學習模型,分別為生成網絡和辨別網絡。生成網絡扮演「造假者」,在模型訓練後產生偽造影片;而辨別網絡則扮演「檢測者」,不斷地檢視假影片,直至它再辨別不了結果是假的。數據越多,效果越理想,假影片越真實。
  • 一文了解Deepfake 2020發展現狀
    (https://arxiv.org/abs/1912.13458)背景差異檢測:該方法通過將人臉區域與背景區域進行對比,從中尋找微小差異以辨別真假。(https://arxiv.org/abs/2003.06711)生物學信號:通過檢測視頻目標的心跳並分析該信號的殘差確定真假,該方法的準確率已達到97.29%,同時還可以檢測背後所用的Deepfake模型。
  • 【雙語彙】Deepfake/深度造假
    事實上,這些全都是deepfake(深度造假)視頻。 Deepfake由deep learning(深度學習)和fake(造假)組合而成,Wikipedia(維基百科)的解釋是:Deepfake is a technique for human image synthesis based on artificial intelligence.
  • 「AI間諜」擾亂美國政壇,眾議院提出法案打擊Deepfake換臉技術
    和之前利用 deepfake 技術將某種動作片中的主人公 P 成自己的夢中情人相比,這種技術利用已經上升到了國家安全層面。管理層已無法坐視不理。現有的「造假」技術到底發展到了何種程度?現有的造假技術,包括圖像生成、語音合成、視頻合成等,都取得了很好的成果。
  • 谷歌 AI 開源 Deepfake 檢測數據集,3000+ 真人...
    谷歌希望能夠通過這些視頻數據,更好的維護整個社會的網絡安全環境,並使得開發者能夠利用這些數據,開發新的 Deepfake 檢測工具,更高效地識別 Deepfake 假視頻。谷歌在博客上發表了相應的文章來介紹這一數據集,雷鋒網 AI 開發者將其整理編譯如下。Deepfake 視頻檢測數據集背景近幾年來,深度學習的發展催生了曾經被認為不可能實現的技術。
  • 全球首款「反AI變臉刑偵檢測工具」,專用於檢測AI變臉/換臉造假技術
    」,專用於檢測AI變臉/換臉造假技術。來源:fxguide.com 有人擔心,支付寶的人臉識別技術會因此失效,或者衍生出新的詐騙方法,犯罪者利用你的圖片冒充你跟另一個人聊天…… 來源:UAlbany.edu 參與DARPA挑戰賽的其他人也在探索類似的技巧,比如自動檢測奇怪的頭部動作、奇怪的眼睛顏色等等。 達特茅斯大學的數字取證專家Hany Farid 表示,目前的AI反變臉工具主要利用利用這類生理信號,至少目前為止這些信號是很難被模仿的。 這些AI刑偵取證工具的帶來僅僅標誌著AI視頻偽造者和數字刑偵人員之間AI軍備競賽的開始。
  • 科技向善Weekly|用DeepFake對抗DeepFake?(9.13—9.20)
    康奈爾大學的研究人員近期發表的一篇論文提供了一種通過 DeepFake 對抗 DeepFake 的方法。即你可以使用DeepFake對自己的面部照片進行「匿名化」。deepfake技術會根據你的動作表情和背景,為你實時生成一張「人臉」。但這張「人臉」變得與現實中你的臉部特徵不再一致。
  • 《連線》:AI生成的文字將是最可怕的Deepfake內容
    雖然這項技術仍在興起,但其被濫用的可能性是如此驚人,以至於科技公司和學術實驗室優先研究並資助檢測方法。社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。
  • 什麼是Deepfake?為什麼Deepfake生成的假臉會這麼自然?
    有了上述發現,整個「打假」問題就可以被簡化為「眨眼檢測」問題。 論文作者開發了一種檢測視頻中人物何時眨眼的方法。更具體地說,他們引入了兩個神經網絡,其中第一個網絡先掃描視頻的每一幀,檢測其中是否包含人臉,如果有,自動定位到眼部。之後,第一個網絡把眼部截圖輸入第二個網絡,由它利用眼睛的外觀、幾何特徵和運動來判斷這是睜眼還是閉眼。
  • 商湯科技發布迄今最大人臉檢測數據集,絕殺Deepfake
    100位計算機專家對DeeperForensics-1.0中包含的視頻子集質量進行排名時,報告指出與其他流行的Deepfake檢測語料庫相比,DeeperForensics-1.0在規模上的真實性均領先。人臉交換嚴格就DeepFake的一種。就是將已有的人臉提取出來,用其他人臉代替,已被MixBooth和SnapChat之類的應用程式所普及。
  • 新deepfake 算法,更輕鬆修改視頻講話
    獲悉,一種新的深度偽造(deepfake)算法可以將音頻和視頻處理成一個新文件。 在此基礎上,當人們編輯腳本,算法就可以創建人臉的3D模型並生成所需的新形狀。一種叫做神經渲染(Neural Rendering)的機器學習技術可以用真實感紋理繪製出3D模型,使其看起來與真實物體基本沒有區別。
  • 音頻版Deepfake詐騙案正在興起,專家:需警惕
    我們看到,在馬斯克的這段演講視頻中,Deepfake的換臉技術幾乎達到了人眼無法區別的地步。不過,隨著技術的不斷成熟,Deepfake卻帶來隱藏的「虛假」風險。自從2017年,一位網友將美國女星和成人電影女主做了人臉交換,偽造了一段色情視頻後,有關濫用Deepfake製造虛假、不良內容的視頻一直充斥於網絡。
  • DeepFake系列之FakeSpotter
    簡介論文題目&作者團隊今天給大家解讀的是最近一篇關於Deepfake檢測的論文,出自阿里巴巴,小米AI lab聯合出品的FakeSpotter,由於以往的Deepfake檢測網絡魯棒性並不高,這篇文章探討一個更簡單的方式,增強網絡的魯棒性。1.
  • 又來搞怪 輕鬆製作怪異的Deepfake模因
    據外媒Techspot報導,一種新的時尚正在席捲社交媒體, 尤其是出現在TikTok上的一種怪異的deepfake模因。這些「病毒式」視頻中,各種知名和不知名的人物都在唱 "Baka Mitai",這是一首在一些Yakuza電子遊戲中聽到的Karioki歌曲。
  • 深度解密換臉應用 Deepfake
    前言Deepfake 就是前一陣很火的換臉 App,從技術的角度而言,這是深度圖像生成模型的一次非常成功的應用,這兩年雖然湧現出了很多圖像生成模型方面的論文,但大都是能算是 Demo,沒有多少的實用價值,除非在特定領域(比如醫學上),哪怕是英偉達的神作:漸進生成高清人臉 PGGAN 好像也是學術意義大於實用價值。