黑科技DeepFake檢測方法:利用心跳做信號,還能「揪出」造假模型

2020-12-25 騰訊網

選自arXiv

作者:Umur Aybars Ciftci等

機器之心編譯

編輯:陳萍

DeepFake 真的可以達到以假亂真的效果嗎?未必。來自賓漢姆頓大學、英特爾公司的研究人員利用心跳做信號判別真假視頻,還能「揪出」背後的生成模型。

偽造人像視頻生成技術給社會帶來了新的威脅,例如利用逼真的偽造圖像和視頻進行政治宣傳、名人模仿、偽造證據以及其他與身份有關的操作。伴隨著這些生成技術的發展,出現了一些被證實有效的 deepfake 檢測方法,這些方法具備較高的分類準確率。然而,目前幾乎沒有任何工作關注 deepfake 視頻的來源(即生成 deepfake 視頻的模型)。

來自賓漢姆頓大學、英特爾公司的研究人員提出了一種方法,利用視頻中的生物信號檢測該視頻是否偽造。該方法不僅可以區分真假視頻,還能夠發現 deepfake 視頻背後的特定生成模型(其中,生成模型是在 DeepFakes、Face2Face、FaceSwap、NeuralTex 中進行選擇)。

一些純粹基於深度學習的方法嘗試使用 CNN 來分類造假視頻,CNN 實際上學習的是生成器的殘差。該研究認為這些殘差包含了更多的信息,可以通過將它們與生物信號分離來揭示偽造細節。觀察結果表明,生物信號中的時空模式可以看作是殘差的代表性投影。為了證明這一觀察結果的合理性,研究人員從真實和虛假視頻中提取 PPG 單元,並將其輸入到當前最優的分類網絡中,以檢測每個視頻的生成模型。

實驗結果表明,該方法對假視頻的檢測準確率為 97.29%,對假視頻背後生成模型的識別準確率為 93.39%。

論文地址:

https://arxiv.org/pdf/2008.11363.pdf

該論文的貢獻如下:

提出一種新型 deepfake 視頻源頭檢測方法,為 deepfake 檢測研究開啟了新的視角;

提出一項新發現:將生成噪聲投影到生物信號空間,可以為每個模型創建唯一標識;

提出一種先進的通用 deepfake 檢測器,在真假視頻分類方面優於現有方法,同時還能預測假視頻背後的生成模型,即源生成模型。

利用生物信號檢測假視頻及其生成模型

生物信號已被證明可以作為真實視頻的真實性標誌,它也被用作 deepfake 檢測的重要生物標誌。正如我們所知,假視頻中的合成人物無法具備與真視頻中人物類似的心跳模式。該研究的關鍵發現基於這一事實:這些生物信號可以被解釋為包含每個模型殘差標識變換的假心跳。這催生了對生物信號的新探索,它們不僅可以用來確定視頻的真實性,還可以對生成該視頻的源模型進行分類。

於是,該研究提出了既能檢測 deepfake 視頻,又能識別源生成模型的系統,如圖 1 所示:

為了連續地捕捉生物信號的特徵,研究人員定義了一種新的時空塊——PPG 單元。該時空塊結合了多種原始的 PPG 信號及其功率譜,並從一個固定的窗口提取。PPG 單元的產生首先需要使用人臉檢測器在每一幀中找到人臉。

第二步是從檢測到的人臉中提取感興趣區域 (ROI)(圖 1d),該區域具有穩定的 PPG 信號。為了有效地提取,研究者使用眼睛和嘴之間的面部區域,以最大限度地增加皮膚暴露。

由於來自人臉不同區域的 PPG 信號之間存在相關性,因此定位 ROI 並測量其相關性成為檢測的關鍵步驟。

第三步需要將非線性 ROI 與矩形圖像對齊。該研究使用 Delaunay triangulation [26],隨後對每個矩形使用非線性仿射變換,從而將每個矩形轉換為校正圖像(rectified image)。

在第四步中,研究者將每個圖像分成 32 個相等大小的正方形,並在 ω 幀大小的固定窗口中計算每個正方形的原始 Chrom-PPG 信號,並且這不會干擾人臉檢測(圖 1e)。然後,計算校正圖像中的 Chrom-PPG,因為它能產生更可靠的 PPG 信號。對於每個窗口,現在有 ω × 32 個原始 PPG 值。

現在將它們重組成 32 行、ω 列的矩陣,就形成了 PPG 單元的基礎,如圖 1f 和圖 2 最下面一行的上半部分所示。

最後一步將頻域信息添加到 PPG 單元。計算窗口中每個原始 PPG 值的功率譜密度,並將其縮放到 ω 大小。

圖 2 的最下面一行顯示了從同一個窗口生成的 deepfake PPG 單元示例,第一行是每個窗口的示例幀。

定義完 PPG 單元後,研究者展示了其主要假設:將 deepfake 生成器的殘差投影到生物信號空間,可以創造一個獨特的模式,並用於檢測 deepfake 背後的源生成模型。

實驗

該研究提出的系統採用 Python 語言實現,使用 OpenFace 庫進行人臉檢測,OpenCV 進行圖像處理,使用 Keras 實現神經網絡。

表 1 列出了在測試集上的 PPG 單元分類結果,其中 VGG19 在區分 4 種不同生成模型和檢測 FaceForensics++(FF)真實視頻方面達到了最高準確率(圖 1f)。像 DenseNet 和 MobileNet 這樣的複雜網絡由於過擬合,雖然達到了非常高的訓練準確率,但在測試集上的效果不如人意。

在視頻分類方面,表 2 記錄了過程中的不同投票方案。研究者設置 ω=128,比較了使用大多數投票、最高平均概率、兩個最高平均概率以及對數機率平均後 VGG19 的單元預測結果。

如圖 3 所示,該方法對五類 FF(1 個真視頻和 4 個假視頻)的真實視頻檢測率為 97.3%,對生成模型的檢測準確率至少為 81.9%。

研究人員在不同的設置上進行訓練和測試:1)訓練集中沒有真實的視頻;2)PPG 單元中沒有功率譜;3)沒有生物信號;4)使用全幀而不是面部 ROI,其中 ω = 64,FF 數據集分割設為常數。結果見表 3:

使用前述設置,用不同的窗口大小 ω = 幀來測試該論文提出的方法。結果參見下表 4:

為了證明該論文提出的方法可以擴展到新模型,研究人員將 FF 設置與單個生成器數據集 CelebDF 相結合併重複分析過程。該研究提出的方法在整個數據集上達到了 93.69% 的檢測準確率,在 CelebDF 數據集上達到了 92.17% 的檢測準確率,這表明該方法可以泛化到新模型(參見表 5)。

表 6 列出了測試集上不同模型的準確率。由結果可知,該論文提出的方法甚至超過了最複雜的網絡 Xception,準確率高出 10%。

如何根據任務需求搭配恰當類型的資料庫?

在AWS推出的白皮書《進入專用資料庫時代》中,介紹了8種資料庫類型:關係、鍵值、文檔、內存中、關係圖、時間序列、分類帳、領域寬列,並逐一分析了每種類型的優勢、挑戰與主要使用案例。

相關焦點

  • 用生物信號檢測Deepfake,這個新方法會很快失效嗎?
    讓 Deepfake 越來越逼真的一個核心技術是 GAN(Generative Adversarial Network),也就是生成對抗網絡。它的原理類似左右手互博 —— 生成器生成假視頻,鑑別器用以鑑別真偽,以此不斷提高造假的質量。正因如此,檢測 Deepfake 的方法很容易被超越。
  • 一文了解Deepfake 2020發展現狀
    (https://arxiv.org/abs/1912.13458)背景差異檢測:該方法通過將人臉區域與背景區域進行對比,從中尋找微小差異以辨別真假。(https://arxiv.org/abs/2003.06711)生物學信號:通過檢測視頻目標的心跳並分析該信號的殘差確定真假,該方法的準確率已達到97.29%,同時還可以檢測背後所用的Deepfake模型。
  • Deepfake技術被稱現代網絡「易容術」 AI換臉如何打假「李鬼」
    翁仲銘解釋,這包括兩個機器學習模型,分別為生成網絡和辨別網絡。生成網絡扮演「造假者」,在模型訓練後產生偽造影片;而辨別網絡則扮演「檢測者」,不斷地檢視假影片,直至它再辨別不了結果是假的。數據越多,效果越理想,假影片越真實。
  • 谷歌對Deepfake亮劍:打造鑑假新工具,幫助媒體識別AI造假
    魚羊 發自 凹非寺量子位 報導 | 公眾號 QbitAI谷歌也開始針對Deepfake了。AI造假技術一代更比一代強,假圖片、假信息、假新聞甚至能影響真實社會事件的走向。且不說對於普通人,對於新聞工作者而言,判斷一張圖片是否真實,也並非易事。而這,就有可能造成虛假信息的進一步傳播。
  • 一個模型擊潰12種AI造假,各種GAN與Deepfake都陣亡
    不論是GAN生成的,Deepfake的,超解析度的,還是怎樣得來的,只要是AI合成圖片,都可以拿一個通用的模型檢測出來。儘管各種CNN的原理架構完全不同,但是並不影響檢測器發現造假的通病。比如同樣是一張馬的圖片,真實照片的信號主要集中在中心區域,而GAN生成的圖像,頻譜圖上出現了四個小點。因此他們提出了一種基於頻譜而不是像素的分類器模型,在分辨假圖像上達到了最先進的性能。而Wang同學發現,不僅是GAN,其他的CNN在生成圖像時,也會在頻譜圖中觀察到周期性的圖案。
  • Deepfake系列——音頻深度偽造(1)
    Deepfake這個概念最早出現在 2017 年底,起初是一名為「deepfakes」的Reddit用戶在網上發布了一段利用名人面孔合成的色情視頻,引發各界關注
  • 《連線》:AI生成的文字將是最可怕的Deepfake內容
    雖然這項技術仍在興起,但其被濫用的可能性是如此驚人,以至於科技公司和學術實驗室優先研究並資助檢測方法。社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。
  • 這個Deepfake AI語音發生器可以模仿名人的聲音
    隨著人工智慧(AI)的不斷發展,在網際網路上使用「深造假」變得越來越普遍。儘管多年來使用這類「 deepfake」 製作未經同意的色情影片以及名人和傑出人物的假冒視頻已成為一個大問題,但網際網路上仍然存在一些基於AI的Deepfake生成器。這個令人毛骨悚然的Deepfake語音發生器是使用AI模仿各種政客和名人的聲音的工具之一。
  • Deepfake一鍵翻新「成人色情視頻」,遭各大平臺封殺
    近日,再次有外媒爆出在Reddit社區中,一個名為r / GeneratedPorn Subreddit正在散播大量色情淫穢作品,而製作這些色情作品的正是造假軟體—Deepfake。不同於DeepNude利用社交網絡中的私人照片,這次Deepfake造假軟體利用的是現有的成人色情作品。創建者認為在原有色情作品上,利用Deepfake生成不存在的人臉進行二次創作可以避免法律上的懲罰和道德上的譴責。
  • KaggleDeepfake|換臉圖像+視頻+語音,這項技術還能走多遠?(3/3)
    而當這些假視頻泛濫,影響的群體越來越廣,引起了各界的重視,抵制,甚至封殺,那麼在這樣的壓力下,「Deepfake」技術還能走多遠?調查發現,普通民眾的態度令人大吃一驚:與這些官方或者公眾平臺的態度相反的是,許多人對於deepfake技術有一種盲目樂觀的觀點,即技術進步必然是好的。
  • 中國科大團隊獲得DeepFake檢測挑戰賽全球第二名
    在這一背景下,國際網際網路巨頭臉書聯合微軟、亞馬遜等在Kaggle競賽平臺發布了「Deepfake Detection Challenge」人臉視頻深度偽造檢測挑戰賽,獎金總額高達100萬美元,用於獎勵獲得前5名的隊伍,這也是Kaggle平臺上迄今為止獎金數額最大的比賽之一。
  • 又來搞怪 輕鬆製作怪異的Deepfake模因
    據外媒Techspot報導,一種新的時尚正在席捲社交媒體, 尤其是出現在TikTok上的一種怪異的deepfake模因。這些「病毒式」視頻中,各種知名和不知名的人物都在唱 "Baka Mitai",這是一首在一些Yakuza電子遊戲中聽到的Karioki歌曲。
  • PPG信號識別思路開啟DeepFake 的識別新方向
    最近,一篇刊登在 IEEE PAMI(模式分析與機器智能彙刊)上的論文稱,有新的方法能夠準確識別 DeepFake 視頻,甚至能以很高的準確率,識別出視頻採用的是哪種 DeepFake 算法。 這篇論文有意思之處,在於它的思路別出心裁:識別人臉面部因心跳血流產生的微弱變化。 血管遍布人體全身,包括臉上。
  • 拍紀錄片、做表情包,盤點2020年Deepfake大事記
    一位名為「Deepfake」的 Reddit 用戶使用人工智慧算法,將色情片主角的臉換成名人的臉,在當事人不知情、未同意的情況下,上傳這些虛假色情片。科爾披露了這一行為,那正是 Deepfake 科技蓄力之時。一年後,Deepfake 色情片不僅僅在 Reddit 上傳播,而且,許多軟體可以「剝掉」任何被拍到的女性所穿衣服,獲取此類軟體也輕而易舉。
  • 一鍵Deepfake,人人都能用的視頻自動換臉網站上線
    視頻造假,已經簡單到了「點擊即送」的程度。AI 換臉應用 ZAO因為侵犯個人隱私下架沒多久,另一個在線服務又映入人們的眼帘。最近幾天,一個名叫 MyVoiceYourFace 的網站吸引了我們的注意。用戶只需上傳一張照片和一段視頻,網站會用照片裡的人臉,替換掉視頻裡面的人臉。
  • Facebook放出十萬個Deepfakes視頻來訓練AI識別它們
    Facebook也宣布了Deepfake檢測挑戰的獲勝者。2114名參與者提交的35000個模型都在這些數據集上進行了訓練。其中,最好的模型由測繪公司Mapbox的機器學習工程師Selim Seferbekov設計,在一組包含1000個陌生視頻的數據集中,該模型的檢測正確率有65%,(該數據集還包括一些由Facebook製造、以及現有網際網路上的Deepfake視頻)。
  • 黑科技DeepFake,上線五天就遭全球唾棄,這技術到底有多邪惡?
    它依賴於一種稱為自動編碼器的神經網絡,將圖像縮小到較低維空間編碼器和一個從潛在表示中重建圖像的解碼器組成,Deepfake通過通用編碼器來利用此架構,該編碼器可將人的特徵編碼到這個空間中
  • 破局「眼見為假」:誰在反Deepfakes?
    但由於AI換臉的驗證檢測技術具有嚴重依賴以往模型的反應機制,即當前方法無法檢測新的Deepfakes算法。因此,AI換臉的檢測技術與造假技術將長期處在攻防賽狀態。最早向Deepfakes發難的是美國國防部DAPRA。
  • 輻射無處不在,核輻射信號有哪些檢測方法?
    到目前為止,科學家僅通過裂變過程來利用核能,科學家也希望用磁約束聚變和慣性約束聚變過程實現聚變能。由於核電的大力發展,核安全和核廢料的處理特別受公眾的關注,地球人也不希望車諾比事故再次發生。不管是核電還是核物理研究,核輻射的探測都是超級重要的,因為這可以檢測核輻射以控制核安全,還能研究核的性質。