深度揭秘AI換臉原理,為啥最先進分類器也認不出?

2021-01-20 手機鳳凰網

智東西4月20日消息,AI換臉已不是新鮮事,手機應用市場中有多款換臉app,此前也曾曝出有網絡IP用明星的面孔偽造色情影片、在大選期間用競選者的臉製作虛假影像信息等。

為了規避Deepfake濫用帶來的惡性後果,許多研究者嘗試用AI技術開發鑑定分類器。

然而,谷歌公司和加州大學伯克利分校的研究人員最近的研究顯示,現在的鑑定技術水平還不足以100%甄別出AI換臉作品。另一項由加州大學聖地牙哥分校主導的研究也得出了相同結論。

這些研究結果為我們敲響了警鐘,要警惕AI換臉製作的虛假信息。

目前谷歌和加州大學伯克利分校的研究已經發表在學術網站arXiv上,論文標題為《用白盒、黑盒攻擊繞過Deepfake圖像鑑別工具(Evading Deepfake-Image Detectors with White- and Black-Box Attacks)》

一、實驗準備:訓練3種分類器,設置對照組

實現AI換臉的技術被稱為Deepfake,原理是基於生成對抗網絡(generative adversarial networks,GAN)合成虛假圖片。GAN由一個生成網絡和一個判別網絡組成。

GAN模型的學習過程就是生成網絡和判別網絡的相互博弈的過程:生成網絡隨機合成一張圖片,讓判別網絡判斷這張圖片的真假,繼而根據判別網絡給出的反饋不斷提高「造假」能力,最終做到以假亂真。

研究人員共對3個分類器做了測試,其中兩個為第三方分類器,一個為研究人員訓練出的用於對照的分類器。

選用的第三方分類器分別採用兩種不同訓練方式。

第一個分類器模型基於深度殘差網絡ResNet-50(Deep residual network)。

用到的ResNet-50預先經過大型視覺資料庫ImageNet訓練,接下來再被訓練用於辨別真假圖像。採用包含720000個訓練圖像、4000個驗證圖像的訓練集,其中一半為真實圖像,另一半是用ProGAN生成的合成圖像。合成圖像採用空間模糊和JEPG壓縮方法增強。

經過訓練後,這個分類器能準確識別出ProGAN生成的圖像,而且還能分類其他未被發現的圖像。

第二個鑑定分類器採用的是基於相似性學習(similar learning-based)的方法。經過訓練後這款分類器可以準確辨認出由不同生成器合成的圖像。

研究團隊還自己搭建了一個鑑定分類器模型,作為前述兩個鑑定分類器的對照示例。這個分類器採用100萬個ProGAN生成的圖像進行訓練,其中真假圖像各佔一半。論文中指出,這個分類器的訓練管道比前述兩種簡單很多,因此錯誤率也更高。

研究人員根據分類器是否開放了訪問權限,選用了不同的攻擊方式。對開發訪問權限的分類器採用白盒攻擊;對不開放訪問權限的分類器採用黑盒攻擊。

另外,研究人員用接收者操作特徵曲線(ROC曲線)評估分類器的正確率。評估標準是曲線下面積(AUC)的大小。AUC的取值範圍為0~1,一般來說AUC>0.5即代表分類器有預測價值,AUC值越大代表分類器準確率越高。

二、4種白盒攻擊方法,AUC最低被降至0.085

對於開放了訪問權限的分類器,研究人員用白盒攻擊評估其穩健性。

白盒攻擊即攻擊者能夠獲知分類器所使用的算法以及算法使用的參數。在產生對抗性攻擊數據的過程中,攻擊者能夠與分類器系統產生交互。

攻擊過程中用到的所有圖像都來自一個包含94036張圖像的視覺資料庫。

開始白盒攻擊之前,基於這個資料庫的分類器的AUC數值為0.97。即使在執行典型的清洗策略隱藏圖像合成痕跡後,分類器的AUC數值仍保持在0.94以上。

接下來研究人員使用了4種白盒攻擊方法。這4種攻擊在之前的對抗性示例中已有過研究。攻擊的具體方式是對圖像進行修改,使分類器誤認為它們是真實的。

▲四種攻擊前後,分類器的ROC曲線圖。藍色實線代表JPEG格式的合成圖像,藍色虛線代表PNG格式的合成圖像

第一種是失真最小化攻擊(Distortion-minimizing Attack),即對合成圖像添加一個較小的加法擾動δ。假設一個合成圖像x先被分類器判定為假,施加擾動後,(x+δ)就會被判定為真。

結果顯示,像素翻轉2%,就會有71.3%的假圖像被誤判為真;像素翻轉4%,會有89.7%的假圖像被誤判為真;像素翻轉4~11%,所有的假圖像都會被誤判為真。

▲a:分類器把假圖像識別為真;b:分類器把真圖像識別為假。把像素翻轉1%,就會有一半的假圖像被判定為真;把像素翻轉7%,就會有一半的真圖像被判定為假。

第二種是損失最大化攻擊(Loss-Maximizing Attack),即定義一個更簡單的目標函數,更大限度地提升合成圖像被判定為真的概率。

結果顯示把未壓縮圖像的像素翻轉40%,AUC值就會從0.966降到0.27。

第三種是通用對抗性補丁攻擊(Universal Adversarial-Patch Attack)。失真最小化攻擊方法有有一個局限性:攻擊者需要花費0.1秒為每個圖像定製攻擊方式。為了彌補這一局限性,研究人員創建了一個單一的可視噪聲模板補丁。這個補丁可以疊加在任何假圖像上,有效增加了假圖像的迷惑性。

疊加補丁後,分類器的AUC值從0.966降到0.085。

不同於之前三種方法通過對假圖像施加擾動來影響分類結果,第四種攻擊方法是通用潛空間攻擊(Universal Latent-Space Attack),即對圖像的潛在空間進行攻擊。最終把分類器的AUC值從0.99降到0.17。

▲a為通用對抗性補丁攻擊效果,b~d為通用潛空間攻擊效果。圖中所有假圖像都被分類器誤判為真

三、限制條件進行黑盒攻擊,AUC值降至0.22以下

論文指出,現實中的社交網站、約會網站等,並不會公開其鑑定分類器的算法,因此很難進行前面所說的白盒攻擊。

面對這種情況,研究人員進行了黑盒攻擊。黑盒攻擊假設對方知道攻擊的存在,並且掌握了一般的防禦策略。

研究結果顯示,即使在這種限制性較強的黑盒攻擊條件下,鑑定分類器也很容易受到對抗性因素影響。經過黑盒攻擊,分類器的AUC數值下降到0.22以下。

結語:現有分類器有局限性,仍需深入研究

谷歌公司和加州大學伯克利分校研究團隊證明,只要對虛假圖片適當加以處理,就能使其「騙」過分類器。

這種現象令人擔憂,論文中寫道:「部署這樣的分類器會比不部署還糟糕,不僅虛假圖像本身顯得十分真實,分類器的誤判還會賦予它額外的可信度」。

因此,研究人員建議開創新的檢測方法,研究出可以識別經過再壓縮、調整大小、降低解析度等擾動手段處理的假圖像。

據悉,目前有許多機構正在從事這一工作,如臉書、亞馬遜網絡服務及其他機構聯合發起了「Deepfake鑑別挑戰」,期待能探索出更好的解決方案。

相關焦點

  • 從歐巴馬假視頻到ZAO,換臉和人臉檢測技術發生了什麼?
    最流行的技術之一是 Face2Face,該技術可實時進行。近期方法展現出巨大潛力,可以生成高質量的視頻,上述視頻中人物(如歐巴馬)的發言已被改變。人臉合成相關的操縱技術和公共資料庫下表 1 總結了人臉合成研究中主要使用的公共資料庫。必須強調的是這些資料庫中不包含真實人臉圖像樣本。
  • 換臉App背後的恐慌:我的臉什麼時候會被偽造,又該如何辨別?
    誰能想到,全民換臉的時刻這麼快就來臨了。在一夜之間,朋友圈幾乎被ZAO刷屏,親朋好友們紛紛用自己的臉換上了電影明星的臉,「上演天下好戲」。這種以假亂真的換臉視頻技術,其實已經不是什麼新鮮事了。在受到爭議後,ZAO修改的最新用戶協議 | ZAO用戶協議截圖讓AI技術觸及大眾本來是件好事,那換臉視頻到底出了什麼問題呢?
  • 抖音被曝秘密開發換臉功能,視頻加水印防作偽
    這款應用代碼為「換臉」(Face Swap),採用類似Deepfake技術。要想使用新的換臉功能,抖音及其海外版TikTok都要求用戶對自己的臉進行多角度生物掃描,然後將其添加到想要的視頻中,並將自己的臉覆蓋在視頻中某人的身上,最後進行分享。
  • 零基礎入門深度學習(六):圖像分類任務之LeNet和AlexNet
    從本課程中,你將學習到:深度學習基礎知識numpy實現神經網絡構建和梯度下降算法計算機視覺領域主要方向的原理、實踐自然語言處理領域主要方向的原理、實踐>個性化推薦算法的原理、實踐本周為開講第四周,百度深度學習技術平臺部資深研發工程師孫高峰,開始講解計算機視覺中圖像分類任務。
  • 功率放大器分類及D類功率放大器的工作原理
    打開APP 功率放大器分類及D類功率放大器的工作原理 發表於 2019-07-18 08:45:18 電壓放大電路是要負載得到不失真的電壓信號,主要泰倫的指標數是電壓增益,輸入和輸出阻抗等等,但是輸出的功率不一定大。功放則不一樣,功放要求獲得一定的不失真的輸出功率,通常是在大信號狀態下工作,所以要輸出功率大,效率要高,非線性失真要小。還有一個嚴肅的問題是散熱問題。 功率放大器,是指在給定失真率條件下,能產生最大功率輸出以驅動某一負載的放大器。
  • 已經有人通過AI換臉來篡改世界線了
    人類的第一次登月最終以一個圓滿的結局收場,尼克森終究沒有在電視中念出「這些先驅永遠活在我們心中」。三十年過去了,在人類依舊沿著這條路向前走的同時,麻省理工學院高級虛擬中心向人們展現出歷史的另一條道路。Deepfake是英文「deep learning」(深度學習)和「fake」(偽造)組合的混成詞,專指基於人工智慧的人體圖像合成技術。當下這門技術主要應用於「換臉」,而「換臉」則主要應用於情色內容。
  • 血氧檢測新玩法,識別AI視頻換臉,準確率高達97%
    因為這樣的例子已經不少見了,許多明星的臉已經被p進小電影了。最近,一篇刊登在 IEEE PAMI(模式分析與機器智能彙刊)上的論文提出了新的方法能夠準確識別 Deepfake 視頻,也就是通過 AI 換臉的視頻,並且能以很高的準確率識別出視頻採用的是哪種 DeepFake 算法。這篇論文提出的思路別出心裁:識別人臉面部因心跳血流產生的微弱變化。
  • 手把手教你用PyTorch實現圖像分類器(第一部分)
    本文的目標是加載其中的一個pre-trained網絡,並且將其中的分類器替換為自己的分類器,從而可以訓練自己的分類器。雖然這個想法是合理的,但我發現它也會產生一些問題,因為加載一個預先訓練的網絡並不能節省訓練分類器的時間。
  • 朝鮮研發出基於AI技術的文本識別器
    韓聯社首爾10月27日電 據朝鮮金日成綜合大學官網27日介紹,該校信息科學部研究團根據韓文的形態學特徵,運用卷積神經網絡(CNN)技術成功研發具備改良型手寫體識別技術的文本分類器。朝鮮金日成綜合大學卷積神經網絡仿造人類的視神經機制構建,最近常被用於深度學習
  • 1500萬個標記圖像、2萬多個分類!如今的AI圖像分類器還是「睜眼瞎」
    但在過去的十年中,ImageNet一直都是人工智慧研究人員所依賴著名的訓練數據集,ImageNet有一個「對象識別集」:對「人物」的分類——即著名的ImageNet分類實驗,這其下包含了達2833個子類別且各個子類別下都包含了上百張圖像,每個子類別都在試圖幫助軟體完成看似不可能的人類分類任務。但這其中卻存在明顯的短板:它通常很難去識別人。
  • 這項AI技術讓人毛骨悚然,可以處理掉女性身上的衣服,顯示裸體!
    就和現在AI換臉技術差不多,只不過這次替換的是衣服!看到這條新聞的時候第一個反應是,這什麼垃圾軟體?這不是給那些不軌的人造謠的機會嗎?要是有那些個小心眼的拿死對頭的照片用上,這不毀人名譽嗎?不要說假不假的,這種軟體就是垃圾,因為在照片傳播的時候對名譽的侵害已經造成了!傳播出去只有照片上的人名譽受損!我實在無法想像這樣的軟體能用於什麼對社會有益的事情上來。
  • 對數放大器的原理和分類
    儘管這兩种放大器在細節上有些不同,但原理是相同的,它不是採用一個放大器的對數特性而是用多個相同的線性放大器級聯來分段線性逼近對數函數。解調對數放大器與基帶對數放大器雖然都採用上述的級聯限幅放大器,解調對數放大器不是將輸出直接累加,而是先檢波然後輸出累加,用級聯限幅放大器構成的對數放大器有兩種輸出:對數輸出和限幅輸出。許多應用中限幅輸出並不需要,但有些應用中,兩種輸出都是必須的。解調對數放大器的對數輸出一般包括幅度信息,而相位和頻率信息則被丟失。如果採用半波檢波器和延時補償,相位和頻率信息也可被保留。
  • 10秒跟明星換臉?這款AI換臉軟體一夜走紅!但用戶協議你看了嗎
    換臉軟體「ZAO」一夜爆紅「ZAO」是一款使用AI技術換臉的軟體,據它的應用介紹,只需一張正面照,就可以玩轉所有表情包和經典影視片段,讓你過足戲癮。用戶註冊完成後,系統會提示你選擇一張圖片——在你的相冊中,很多照片不清晰或者非正臉的照片都被系統否決的,不允許上傳。在選擇完照片後,APP還會要求你進行一項特殊的操作——肖像驗證。
  • 光纖放大器/EDFA,光纖放大器/EDFA的原理和分類
    PDFA)等;(3)非線性光纖放大器,主要是光纖喇曼放大器(FRA,Fiber Raman Amplifier)。EDFA的原理EDFA的基本結構如圖1(a)所示,它主要由有源媒質(幾十米左右長的摻餌石英光纖,芯徑3-5微米,摻雜濃度(25-1000)x10-6)、泵浦光源(990或1480nm LD)、光耦合器及光隔離器等組成。信號光與泵浦光在鉺光纖內可以在同一方向(同向泵浦)、相反方向(反向泵浦)或兩個方向(雙向泵浦)傳播。
  • 淺談AI深度學習之於先進封裝的重要性
    隨著半導體的產業熱度不減,本次封測大會吸引了眾多專家學者,還包括幾乎全部的中國半導體行業的大型封測廠商、主流的海內外封測設備提供商。在大會上,聚時科技(上海)有限公司 CEO鄭軍博士受邀出席,分享了深度學習和機器學習運用於封裝質量控制、複雜缺陷檢測與分析方面的技術產品進展和落地案例情況。
  • ICLR2020 | 分類器其實是基於能量的模型?判別式分類器設計新思路
    因為這種方法提出將分類器重新解讀為基於聯合能量的模型(Joint Energy based Model),所以他們將該方法稱為 JEM。 下圖 1 給出了該框架的概況,其中分類器的 logit 會被重新解讀,以定義數據點和標籤的聯合數據密度以及數據點單獨的數據密度。
  • 衝牙器誤區大揭秘!老司機告訴你衝牙器排行榜!
    如今口腔問題已經越來越受大家的關注,人們對於口腔保健的意識也越來越高,這也在另一方面帶動了口腔保健產品領域,想必大家都聽過電動牙刷、牙線、衝牙器等產品,尤其是其中的衝牙器在近期被眾多商家標榜為「潔牙神器」,但是事實真的如此嗎?這其實是讓商家鑽了空子,很多商家為了銷售量而進行誇大宣傳,今天我們就來揭秘這些衝牙器的誤區!還有為你安利的衝牙器排行榜,趕快看下去吧。
  • AI界的State of the Art都在這裡了
    機器之心編輯參與:劉曉坤、思源近日,來自 MIT 和 UNAM 的四名學生構建了一個收錄了最優算法的網站,他們按領域、任務和數據集採集了最先進水平(SOTA)的論文,並為不同的任務提供了不同的性能度量標準。如果我們需要處理特定數據集或任務,這能大大減少搜索論文的時間,同時還能快速了解當前最優的解決方案。
  • 深度網絡揭秘之深度網絡背後的數學
    了解更多的神經網絡的工作原理。我決定在今年夏天抽出點時間深入的學習一下數學。我也打算寫一篇關於最新的學習諮詢的文章,以便幫助別人理解一些生澀難懂的概念。我編寫的這篇文章會對那些不太擅長線性代數和微積分的人十分友好,但就像標題所暗示的,這將是一篇與數學密切相關的文章。
  • 鹿晗AI換臉關曉彤,網友傻傻分不清楚
    AI技術把朱茵的臉換成楊冪之後走紅網絡,近日,又有網友嘗試將鹿晗的臉換到關曉彤的身上,沒想到居然一點違和感也沒有,不仔細看還以為就是關曉彤本人,果然在一起久了兩個人會越來越有夫妻相。