想用GAN和Deepfake瞞天過海,沒那麼容易:這是Adobe和加州伯克利的...

2021-01-19 騰訊網

選自arXiv

作者:Sheng-Yu Wang、Alexei A. Efros等

機器之心編譯

參與:沉沉、蛋醬

CNN 生成的圖像與真實圖像很難分辨嗎?來自 Adobe 和加州伯克利的研究者發現,僅僅在一種 CNN 生成的圖像上進行訓練的分類器,也可以檢測許多其他模型生成的結果。或許,GAN 和 Deepfake 在「瞞天過海」上也不是萬能的。

近來,諸如生成對抗網絡(GAN)的深度圖像生成技術快速發展,引發了公眾的廣泛關注和興趣,但這也使人們擔心,我們會逐漸走入一個無法分辨圖像真實與否的世界。

這種擔憂尤其體現在一些特定的圖像操縱技術上,例如用來進行面部風格替換的「Deepfake」,以及逼真的人像生成。其實這些方法僅僅是一種廣泛應用技術中的兩個實例:基於卷積神經網絡(CNN)的圖像生成。

來自 Adobe 和加州伯克利的研究人員在論文預印本平臺 arXiv 上傳了《CNN-generated images are surprisingly easy to spot... for now》,他們提出,即使是在一種 CNN 生成的圖像所訓練的分類器,也能夠跨數據集、網絡架構和訓練任務,展現出驚人的泛化能力。這篇論文目前已被 CVPR 2020 接收,代碼和模型也已公布。

論文地址:https://arxiv.org/abs/1912.11035

項目地址:https://github.com/peterwang512/CNNDetection

在這項工作中,研究者希望找到一種用於檢測 CNN 生成圖像的通用圖像偽造檢測方法。檢測圖像是否由某種特定技術生成是相對簡單的,只需在由真實圖像和該技術生成的圖像組成的數據集上訓練一個分類器即可。

但現有的很多方法的檢測效果很可能會與圖像生成訓練中使用的數據集(如人臉數據集)緊密相關,並且由於數據集偏差的存在,一些方法在新數據(例如汽車)測試時可能泛化性較差。更糟糕的是,隨著圖像生成方法的發展,或是用於訓練的技術被淘汰,這種基於特定生成技術的檢測器可能會很快失效。

所以 CNN 生成的圖像是否包含共同的偽造痕跡呢?例如某種可檢測的 CNN 特徵,這樣就可以將分類器推廣到整個生成方法族,而不只是針對單個生成方法。一般來說,泛化性確實一直是圖像偽造檢測領域的難題。例如,最近的一些工作 [48,13,41] 觀察表明,對某一種 GAN 架構所生成圖像進行訓練的分類器在其他架構上進行測試時性能較差,並且在許多情況下,僅僅訓練數據集的改變(而非架構或任務)就會導致泛化失敗 [48]。這是有道理的,因為圖像生成方法千差萬別,它們使用的是不同的數據集、網絡架構、損失函數和圖像預處理方式。

但研究者發現,與當前人們的理解相反,為檢測 CNN 生成的圖像所訓練的分類器能夠跨數據集、網絡架構和訓練任務,展現出驚人的泛化能力。在本文中,研究者遵循慣例並通過簡單的方式訓練分類器,使用單個 CNN 模型(使用 ProGAN,一種高性能的非條件式 GAN 模型)生成大量偽造圖像,並訓練一個二分類器來檢測偽造圖像,將模型使用的真實訓練圖像作為負例。

此外,本文還提出了一個用於檢測 CNN 生成圖像的新數據集和評價指標,並通過實驗分析了影響跨模型泛化性的因素。

基於 CNN 生成模型的數據集

研究者創建了一個 CNN 生成圖像的新數據集「ForenSynths」,該數據集由 11 種模型生成的圖像組成,從非條件式的圖像生成方法(如 StyleGAN)到超解析度方法,以及 deepfake。每個模型都在適合其特定任務的不同圖像數據集上進行訓練。研究者還繼續在論文撰寫後發布的模型上評估檢測器,發現它可以在最新的非條件式 GAN——StyleGAN2 實現開箱即用。

表 1:生成模型。研究者評估了偽造檢測分類器在多種基於 CNN 的圖像生成方法上的效果。

實驗:檢測 CNN 生成的圖像

鑑於數據集中的非條件式 GAN 模型可以生成任意數量的圖像,研究者選擇了一種特定的模型 ProGAN 來訓練檢測器。使用單一模型進行訓練,這個方法與現實世界中的檢測問題極為相似,即訓練時並不清楚需要泛化模型的多樣性和數量。

接著,研究者創建了一個僅由 ProGAN 生成的圖像和真實圖像組成的大規模數據集。使用 20 個模型,每個模型在不同的 LSUN 物體類別上進行訓練,並生成 36K 的訓練圖像和 200 張驗證圖像,每個模型所用的真實和偽造的圖像數量是相等的。一共有 720K 圖像用於訓練、4K 圖像用於驗證。

這一實驗的主要思想是在這個 ProGAN 數據集上訓練一個判斷「真實或偽造」的分類器,並評估該模型對其他 CNN 合成圖像的泛化效果。在分類器的選擇上,使用了經過 ImageNet 預訓練的 ResNet-50,並在二分類的設定下進行訓練。

表 2:跨生成器的泛化結果。圖中展示了 Zhang 等人提供的基線和本文模型在不同分類器上的平均準確度(AP),共 11 個生成器參與測試。符號 X 和 † 分別表示在訓練時分別以 50%和 10%的概率應用數據增強。隨機表現是 50%,可能的最佳表現是 100%。在測試用的生成器被用於訓練時,結果顯示為灰色(因為它們不是在測試泛化性)。黑色的值表示跨生成器的泛化性結果。其中,最高值以黑色加粗顯示。通過減少數據擴充,研究者展示了針對 ProGAN 中較少類的消融實驗結果。同時通過平均所有數據集的 AP 分數來得到 mean AP。為了方便比較,子集被繪製在圖 3、4、5 中。

研究者將該方法的泛化性能與其他圖像偽造檢測方法進行了比較。Zhang 等人的方法提出了一套經過訓練可以檢測由通用 CNN 架構生成的偽造圖像的分類器,這套通用架構在許多圖像生成任務中都有出現(如 CycleGAN 和 StarGAN)。他們引入了 AutoGAN,這是一種基於 CycleGAN 生成器的自動編碼器,可以模擬類似於 CycleGAN 生成的偽造圖像。研究者考慮了 Zhang 等人預訓練模型的四個變體,其中每個都分別從兩個圖像源(CycleGAN 和 AutoGAN)之一和兩種圖像表示(圖像和光譜)之一進行訓練。在訓練過程中,所有四個變體都使用了 JPEG 和放縮進行數據增強,以提高每個模型的魯棒性。

除了 CycleGAN([48] 使用的模型架構)和 StarGAN(兩種方法都獲得了接近 100.0 AP 的結果)外,本文提出的模型對其他架構的泛化性能明顯更好。比較結果可見於表 2 和圖 5。

表 2 展示了使用不同數據增強方法進行訓練的泛化能力。研究者發現,即使在測試時未使用此類擾動,使用激進的數據增強方法(以模擬後處理的形式)也提供了驚人的泛化能力。此外也觀察到這些模型明顯對於後處理更加魯棒(圖 6)。

圖 3:數據增強方法的效果。所有的檢測器都在 ProGAN 上進行訓練,在其他生成器上進行測試(AP 結果如圖所示)。總體來說,使用數據增強進行訓練可以幫助提高模型的效果。其中超解析度模型和 DeepFake 是例外。

圖 4:數據集多樣性的效果。所有的檢測器都在 ProGAN 上進行訓練,在其他生成器上進行測試(AP 結果如圖所示)。使用更多類進行訓練可以提高模型表現。所有的訓練都以 50% 的概率使用了模糊和 JPEG 進行數據增強。

圖 5:模型比較。研究者觀察到,和 Zhang 等人的方法相比,在大多數情況下,本文模型可以更好地推廣到其他架構。值得注意的例外是 CycleGAN(與 [48] 中的訓練架構相同)、StarGAN(兩種方法均獲得接近 100. AP 的結果)和 SAN(應用數據增強會導致性能下降)。

討論

結果表明,如今的 CNN 生成的圖像保留了可檢測到的特徵,從而可以將它們與真實照片區分開。這就使得鑑別偽造照片的分類器無需大量修改即可從一種模型推廣到另一種模型。

但是,這並不意味著這種情況將持續下去。首先,即使是最好的偽造檢測器,也要在真實檢測率和假陽性率之間進行權衡。其次,偽造照片可能會在社交媒體平臺(Facebook,Twitter,YouTube 等)上被大量惡意使用,因此數據將會被劇烈變換(壓縮,縮放,重採樣等)。最後,迄今為止,被記錄在案的的大多數有效的偽造實例都使用經典的「淺層」方法,例如 Photoshop。

在論文的最後,研究者也提到,檢測偽造圖像只是解決視覺虛假信息威脅這一難題的一小部分,有效的解決方案需要融合從技術、社會到法律等各方面的廣泛戰略。

參考連結:

[48] Xu Zhang, Svebor Karaman, and Shih-Fu Chang. Detecting and simulating artifacts in gan fake images. In WIFS, 2019.

[41] RunWang,LeiMa,FelixJuefei-Xu,XiaofeiXie,JianWang, and Yang Liu. Fakespotter: A simple baseline for spotting ai-synthesized fake faces. arXiv preprint arXiv:1909.06122, 2019. 2

[13] Davide Cozzolino, Justus Thies, Andreas Ro ̈ssler, Christian Riess, Matthias Nießner, and Luisa Verdoliva. Forensictrans- fer: Weakly-supervised domain adaptation for forgery detec- tion. arXiv preprint arXiv:1812.02510, 2018. 2

本文為機器之心編譯,轉載請聯繫本公眾號獲得授權。

---

相關焦點

  • deepfake會通過模擬和翻轉,影響聲音的合成
    尤其是教育和醫療兩個方面。證明思考的重要性如果拿著印鈔機來印紙幣,不知道這個風險。第一次見這種標題的消息,就看到說deepfake被曝光但是我本人真的覺得。電影和遊戲還是不要用這種方式更好。確定嗎?這次的事件已經是第四次傳言deepfake,但是得到的回覆都是"很久之前就出現過,但是估計是黃牛炒作"云云。
  • 一個模型擊潰12種AI造假,各種GAN與Deepfake都陣亡
    只要做好適當的預處理和後處理,以及適當的數據擴增,便可以鑑定圖片是真是假,不論訓練集裡有沒有那隻AI的作品。這就是Adobe和UC伯克利的科學家們發表的新成果。有網友表示,如果他們把這項研究用來參加Kaggle的假臉識別大賽,那麼將有可能獲得最高50萬美元獎金。然而他們並沒有,而是先在ArXiv公布了預印本,並且還被CVPR 2020收錄。
  • 《連線》雜誌:AI生成的文字將是最可怕的Deepfake內容
    社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智慧生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為網際網路上一股無孔不入的力量:deepfake文字。
  • 什麼是Deepfake?為什麼Deepfake生成的假臉會這麼自然?
    這種生成虛假視頻的技術叫做「Deepfake」,它能把視頻中的臉換成其他人的臉,同時保持臉部肌肉運動和諧,口型和聲音匹配。 結合政治宣傳,這意味著任何人都能「惡搞」候選人,製作他們「演講」「活動」的假視頻。 由於這項技術十分新穎,效果又格外出色,普通人如果不仔細看,可能無法分辨真實視頻和虛假視頻之間的區別。
  • 新研究訓練小老鼠充當分類器識別Deepfake假聲音,比計算機更靠譜
    利用人類思維製造「假聲」人類在語言加工處理過程中,總是傾向於用標準化的思維來表述,並對語音進行壓縮。新型的"Deepfake"機器學習技術正是利用了這一規律,用聽起來非常像人說話,實際上來源不一的聲音來魚目混珠。
  • 帶你解析2020 Kaggle DeepFake 排行榜前1.5%技術方案
    Deepfake -假視頻檢測截圖來自kaggle官網最近的2020 Deepfake假視頻檢測挑戰賽,旨在幫助世界各地的研究人員檢測線上視頻及語音是否被偽造和篡改,幫助提升線上人權和保護網絡上個人隱私。
  • 用生物信號檢測Deepfake,這個新方法會很快失效嗎?
    但是很快,這個特徵就被下一代的 Deepfake 納入訓練內容,製造出眨眼自然的人物。類似的檢測思路還有人物的微表情:比如川普會如何撅起嘴,或者別的政客如何挑起眉毛。這與眼睛的動態一樣,經過模型的優化後,不難被機器模仿。眼動和臉部微表情的檢測思路,主要是從已經生成的內容出發,試圖尋找哪裡可能有破綻;那有沒有生成器無法捕捉和實現的特徵?
  • 研究人員用頻率分析來識別Deep-Fake圖像 算法造圖會...
    在人工智慧和Deep-Fake日益盛行的放下,不少照片看似真實,但實際上是由電腦製作的。不過這些圖像已經相當具有欺騙性——所謂的深度假圖像是由機器學習算法生成的,人類幾乎無法將它們與真實照片區分開來。Horst Görtz Institute的的研究人員和「大規模對手時代的網絡安全」(Casa)卓越集群開發了一種有效識別深度偽造圖像的新方法。
  • 黑科技DeepFake,上線五天就遭全球唾棄,這技術到底有多邪惡?
    雷布斯有一句名言:「站在風口上,豬都能飛起來」,大意是只要適應潮流,做出符合眾人需求的產品,那麼坐上火箭一般的發展就不遠了!但2017年橫空出世的一項技術遭遇卻徹底打破了這個規律,這就是全球追捧卻被瞬間打入冷宮的DeepFake技術!
  • 懷著名校情結逛加州大學伯克利分校
    加州大學伯克利分校(University of California, Berkeley)是加州大學的創始校區,也是美國最自由、最包容的大學之一,位於美國舊金山灣區伯克利市,與舊金山、金門大橋等隔灣相對,依山傍海,景色宜人,氣候也宜人。伯克利是世界著名公立研究型大學,擁有極高的世界排名和頂級的世界聲譽。
  • 加州大學伯克利分校對本周兩次諾貝爾獎獲獎的反應
    巧的是就在前一天(10月6號),伯克利大學物理學和天文學名譽教授-萊因哈德·根澤爾,也是位於德國加興的馬克斯·普朗克外星物理研究所的所長,他得知自己將與加州大學洛杉磯分校教授安德烈·蓋茲分享2020年諾貝爾物理學獎的一半,因為他們在我們星系中心發現了一個超大質量的緊湊天體(銀河系中心發現一個超大質量的高密度天體)。
  • 論工科實力,加州理工比肩麻省理工,但竟然還不敵加州伯克利?
    綜合排名輸了不說,在專攻的工程領域Caltech也落於人後,這有些出人意料。今天我們就來 對比一下,加州理工和UCB(尤其是在工程領域上)的實力差距。加州大學伯克利分校加州伯克利( University of California, Berkeley,簡稱 UCB)是加州大學的創始校區,代表了美國公立大學的頂尖水平。UCB規模較大, 專業和學院的設置都比較齊全,研究生課程中除了工程學院非常頂尖, 哈斯商學院、教育學院、法學院也是實力強勁。
  • 加州大學伯克利分校獎學金介紹
    加利福尼亞大學伯克利分校(University of California-Berkeley,簡稱UC Berkeley、Berkeley或Cal ,加州大學伯克利分校,伯克利加州大學)是美國頂尖公立研究型大學,也是世界上最富盛名且最頂尖的公立大學。
  • 加州大學伯克利分校本科申請條件
    美國加州大學伯克利分校本科申請條件是什麼?很多的中國學生想高中畢業之後去美國讀本科,每個學校的申請條件都不一樣,所以大家去美國留學之前一定要提前看好申請條件,提前準備考試以及一些申請所需的材料等,下面跟智課選校帝一起來看一下詳細的介紹吧!
  • 伯克利加州大學第七任校長田長霖
    在田長霖就任伯克利加州大學校長三年以後,他爭取到了整個社會的支持,平權政策才得以全面實施。而那個時候,州長、校董卻一直沒有停止過反對,田長霖再一次感受到有一股持續的壓力,擠壓在他的周圍。 田長霖:過了三年之後,我們又遭遇到一個暗殺事件,那次更恐怖一點。那個刺客是一個年輕的女白人,她要來殺我們,結果在我們的主臥房被警衛擊斃。我想這些都代表美國社會的變遷。
  • 2020年諾貝爾獎收官:加州伯克利分校和史丹福大學豐收
    迄今為止距離1901第一次頒布諾貝獎已經有119的時間,而仰賴諾貝爾基金會這一百多年來的努力,通過投資理財,特別是對銀行和不動產的投資,諾貝爾基金會投資市值已超過49億瑞典克朗。所以,獎金金額也逐年升高,從1901年最初諾獎獎金只有15萬瑞典克朗,發展到2020年達到1000萬瑞典克朗。
  • 加州大學UCLA(洛杉磯)和UCB(伯克利)哪個申請更容易?
    在美國 3000 多所大學中,加州大學系列 (UC) 憑藉其完美的地理優勢以及優越的教育資源,成為了許多學生的女神校。以下是根據官方信息統計的數據,涵蓋了2018-2020這三年來加州大學的新生和轉學申請人數對比以及各分校在這三年的申請總人數的變化。根據官方披露的數據, UC 今年共收到 215,162 份入學申請,比 2019 年秋季的 217,650 份減少 1.1%。這些入學申請中包括了 172,099 份新生入學申請和 43,063 份轉學申請。
  • 生成式對抗網絡GAN的高級議題
    我們還可以改變風景來操縱季節,這對於視頻遊戲和虛擬實境模擬器等事物來說可能是有用的操作。我們還可以使用GAN更改景深。我們還可以操縱繪圖,將它們變成真實的物體,相對容易。自動駕駛汽車以與下圖相似的視角看世界,這樣可以以更加對比的方式觀察物體。我們甚至可以進行風格轉換來渲染圖像,如俠盜獵車手的環境。
  • 加州大學伯克利分校想通過全息圖頭欺騙大腦和改變記憶
    如果我們能夠編輯我們的感覺,如果我們可以在大腦中粘貼從未見過的圖片,剪切多餘的疼痛,或者將不存在的氣味插入記憶之中,這又如何呢?美國加州大學伯克利分校的神經科學家們正在建造這樣的設備:把全息圖像投射至大腦,一次性激活或抑制數十個,乃至最終是成千上萬的神經元,從而模仿大腦活動的真實模式以欺騙大腦和改變記憶。
  • 加州大學伯克利分校什麼專業比較強勢?
    加州大學伯克利分校是世界上最重要的研究教學中心之一,其物理、化學、計算機、工程學、經濟學等諸多領域均位列世界前十,與舊金山南灣的史丹福大學共同構成美國西部的學術中心。長期以來,該校的研究生院在全美高校中保持最大規模,其研究生與博士後人數佔全校學生總數的1/3。