作者 | 蔣寶尚
編輯 | 青 暮
DeeFake真是讓人又愛又恨。
由它為基礎開發「AI換臉」術,一方面應用在影視文化行業的想像空間極大,另一方面惡搞與色情影片卻是對人性的聳動。
此類檢測技術,大多都是「二分類」檢測方法,雖然也能達到98%的準確率,然而這些檢測方法往往會受到過渡匹配的影響,也就是說在處理不同類型的圖片時,檢測方法的性能會顯著下降。
更為具體一點,能區分真人和照片的技術叫做liveness detection,中文叫做「活體取證」。當前的技術主要是根據解析度、三維信息、眼動等來區分,因為翻拍的照片解析度比直接從真人上採集的照片在質量、解析度上有差別。
近日,賓漢姆頓大學和英特爾的研究人員開發了一種算法,號稱能用視頻中的生物信號檢測這個視頻是否是偽造的。
除此之外,這種方法還能識別出假視頻背後的生成模型。其中,生成模型的判斷是在DeepFakes、Face2Face、FaceSwap、NeuralTex中做「選擇題」。
進過實驗,該方法對假視頻的檢測準確率為97.29%,對假視頻背後生成模型的識別準確率93.39%。
值得一提的是,論文中利用的生物信號是心跳,採用的方法是PPG光電容積脈搏波描記法原理(PhotoPlethysmoGraphy),簡單來說利用光率的脈動變化,折算成電信號,從而對應成心率。
1 基於心跳的假視頻檢測法
整個算法遵循的觀察規律是:生物信號還沒有保存在假視頻中,這些信號在生成噪聲時也產生了不同的標識。
換句話說,假視頻中顯示的「人」不會表現出與真實視頻中的人相似的心跳模式。
因此,用心跳檢測假視頻的思想可以大致概括為:可以將生物信號解釋為在某種已知維度上的投影,從而可以找到每個生成模型的唯一籤名(標識)。
值得一提的是,無論遮擋、照明條件如何變化,這些標識在真實視頻是不存在的。利用這些標識可以找到假視頻背後的生成模型,然後反過來提高整體的假視頻檢測精度。
在具體工作中,作者從人臉的不同位置提取了32個原始PPG信號(32 raw PPG),然後將這些信號連同它們的譜密度一起編碼到一個時空塊中,這就是所謂的PPG單元(PPG cell)。作者將PPG單元(PPG cell)輸入到現成的神經網絡中,從而識別源生成模型的不同標識。
在網絡架構中,作者引入多個類來進行源檢測,從而更加重視深度學習模型的體系結構。他們將整個識別任務表示為:具有相同概率類別的不同生成源和真實視頻的多標籤分類任務。
在模型訓練過程中,作者在FaceForensics++(FF)數據集上構建了學習設置,其中訓練集和測試集的比例為7:3。由於FF數據集包含4種不同的假視頻生成模型,作者添加了真實的視頻作為第5類。
作者先使用了具有3個VGG塊的簡單CNN,在FF數據集中的5個類別(4個生成模型+1個真實視頻)上實現了68.45%精度的PPG單元塊分類。隨後作者猜測,可能需要一個更高容量的模型才能提升分類精度。所以,他們用另一個VGG塊進行擴展,從而得到了75.49%的結果。
為了進一步證明「猜測」,作者使用VGG16、VGG19、InceptionV3、Xception、ResNet50、DenseNet201和MobileNet進行了實驗,訓練時間為100個epochs,結果如上圖所示:VGG19精度最高。
另外,像DenseNet和MobileNet這樣的複雜網絡由於過擬合,雖然達到了非常高的訓練精度,但在測試集上的效果不如人意。
為了證明作者的方法可以擴展到新的模型,其將FF數據集與CelebDF數據集結合了起來,具體操作是從CelebDF中隨機選擇了1000個假視頻,創建為第六個類。
最後,作者的方法在CelebDF上達到了93.69%的假視頻檢測準確率和92.17%的生成模型檢測準確率。因此,得出結論:利用生物信息檢測假視頻的模型具有泛化性。
via https://www.huxiu.com/article/326522.html
https://venturebeat.com/2020/09/03/ai-researchers-use-heartbeat-detection-to-identify-deepfake-videos/