「DeepFake" ,當眼見不再為實,你還能相信什麼?

2021-02-15 天馳航宇

When seeing is no longer believing

Inside the Pentagon’s race against deepfake videos

Advances in artificial intelligence could soon make creating convincing fake audio and video – known as 「deepfakes」 – relatively easy. Making a person appear to say or do something they did not has the potential to take the war of disinformation to a whole new level. Scroll down for more on deepfakes and what the US government is doing to combat them.

什麼是DeepFakes?

DeepFakes實際上是一種人臉交換技術,就是在圖像或視頻中把一張臉替換成另一張臉。該技術在電影製作領域應用已經非常廣泛,但是以前電影視頻中的人臉交換實現起來難度很大也很非常複雜,即使是使用專業的視頻剪輯師和專家需要花費大量時間和精力才能完成視頻中的人臉交換。

深度造假DeepFakes技術的出現可以說是人臉交換技術的一個突破,該技術讓普通人利用一個GPU和一些訓練數據,就能夠製作出以假亂真的換臉視頻。

深度造假技術究竟能幹啥?

簡單來說,需要給需要進行人臉交換的人各自準備一個視頻集,然後運行命令來對視頻進行預處理和訓練,並將其轉換為音頻和可調整大小的選項等,訓練完成後就能實現非常逼真的偽造視頻了。

深度造假技術的基本原理

該技術的核心是一個「自動編碼器」,該「自動編碼器」實際上是一個深度神經網絡,它能夠接收數據輸入並將其壓縮成一個小的編碼,然後從這個編碼中重新生成原始的輸入數據。在這個標準的自動編碼器設置中,網絡將嘗試學習創建一個編碼,從中網絡能夠重新生成輸入的原始圖片。只要有足夠多的圖像數據,網絡就能學會創建這種編碼。深度造假技術DeepFakes讓一個編碼器把一個人臉壓縮成一個代碼兩個解碼器,一個將其還原成人物A,另一個還原成人物B。

深度造假技術算法訓練的三個步驟如下:

1. 給編碼器輸入了一張A扭曲臉的圖片,並嘗試用解碼器A來重新還原他的臉,這就使得解碼器A必須要學會在複雜的圖片中識別並且還原出A的臉。

2. B扭曲臉的圖片輸入至同一個編碼器,並用解碼器B來還原B的臉。

3. 不斷重複上面的操作,直到兩個解碼器能夠分別還原出兩個人的臉,同時編碼器也能夠學會通過抓取人臉關鍵信息,從而分辨出A和B的臉。

        以上訓練步驟都完成以後,就能把一張A的照片輸入至編碼器,然後直接把代碼傳輸至解碼器B,將A的臉換成B的臉。這就是通過訓練模型完成換臉的全過程。解碼器獲取了A的臉部信息,然後把信息交給解碼器B,這時候解碼器B會作出這樣的反應:「這又是一條幹擾信息,這不是B的臉,那麼就把你換成B吧。」

深度造假技術基本框架

       Deepfake原理可以概括為:用監督學習訓練一個神經網絡將A的扭曲處理過的臉還原成原始臉,並且期望這個網絡具備將任意人臉還原成A的臉的能力。其數學表達公式如下:

 

XW是經過扭曲處理過的圖片,必須要有兩個人的人臉數據。之所以要同時用兩個人的數據並不是說算法只能將A與B互換,而是為提高穩定性,因為Encoder網絡是共享的,Deocder網絡是分開的,數學表達式如下: 

         以下圖對具體過程進行描述

上圖是對神經網絡訓練、測試過程的細化圖解。深度造假技術生成的假臉為什麼會如此自然逼真?這是因為在訓練期間,目標人物A的臉會被摳出來並且定位好五官位置,然後訓練一個無論如何扭曲A的臉,最後都能生成正常A臉的網絡。一旦網絡訓練好,可以往其中輸入B的臉。這時在神經網絡看來,B的臉其實就是經扭曲的A的臉,所以它會直接「糾正」。而表情和口型等細節,這在訓練過程中就已經學會,學的的數據越多,效果越好就會越好!

深度造假技術細節

Deepfake的整個流程包括三步,第一步提取數據;第二步是訓練網絡;第三步是轉換。其中第一和第三步都需要用到數據預處理,另外第三步還用到了圖片融合技術。在技術上主要分:圖像預處理、網絡模型、圖像融合

1. 圖像預處理

從大圖(或視頻)中識別,並摳出人臉圖像,最終摳出來的人臉是擺正後的人臉。

2. 網絡模型

Encoder: 64x64x3->8x8x512

x = input_

x = conv(128)(x)

x = conv(256)(x)

x = conv(512)(x)

x = conv(1024)(x)

x = Dense(ENCODER_DIM)(Flatten()(x))

x = Dense(4 * 4 * 1024)(x)

x = Reshape((4, 4, 1024))(x)

x = upscale(512)(x)

Decoder:8x8x512->64x64x3

x = input_

x = upscale(256)(x)

x = upscale(128)(x)

x = upscale(64)(x)

x = Conv2D(3, kernel_size=5, padding='same', activation='sigmoid')(x)

整個網絡是卷積加全連接,編碼->解碼。con和upscale的內部實現如下:

def conv(filters):

    def block(x):

        x = Conv2D(filters, kernel_size=5, strides=2, padding='same')(x)

        x = LeakyReLU(0.1)(x)

        return x

    return blockdef upscale(filters):

    def block(x):

        x = Conv2D(filters * 4, kernel_size=3, padding='same')(x)

        x = LeakyReLU(0.1)(x)

        x = PixelShuffler()(x)

        return x

    return block

      conv是的卷積加lrelu激活函數,upscale中有個函數叫PixelShuffler,這個函數是將filter的大小變為原來的1/4,讓後讓高h、寬w各變為原來的兩倍,這也就是為什麼前面的卷積層的filtere要乘以4的原因。經歷了四個卷積層、展開層、全連接層,開始 upscale 整個模型。在 upscale 一半的時候,將 encoder 和 decoder 進行了切割,從而保證了共性和個性的分離。

    自換臉工具Deepfake出現後,人們開始意識到除了詐騙簡訊、詐騙電話,現在連視頻都能「詐騙」了,看到聽到也不一定是真的了!為了應對這種由新技術帶來的犯罪風險,研究人員一直在努力發掘虛假視頻和真實視頻的區別,以甄別真假視頻。

參考網站:

https://edition.cnn.com/interactive/2019/01/business/pentagons-race-against-deepfakes/

http://baijiahao.baidu.com/s?id=1596785142340985604&wfr=spider&for=pc

https://blog.csdn.net/za8KFnpo2/article/details/79389121


免責聲明:本公眾號目前所載內容為本公眾號原創、網絡轉載或根據非密公開性信息資料編輯整理,相關內容僅供參考及學習交流使用。由於部分文字、圖片等來源於網際網路,無法核實真實出處,如涉及相關爭議,請跟我們聯繫。我們致力於保護作者智慧財產權或作品版權,本公眾號所載內容的智慧財產權或作品版權歸原作者所有。本公眾號擁有對此聲明的最終解釋權 。

相關焦點

  • 讓眾女星躺槍的deepfake到底是什麼
    Desde hace unos años los videos "deepfake" se utilizan para humillar a las mujeres dentro y fuera de la escena pública
  • 眼見不一定為實
    現在這個時代,媒體網絡太發達,傳播謠言的傷害力更為恐怖
  • Deepfake到底有多可怕?(圖文版)
    這個視頻,這個以下這些,都是偽造的,全部都是通過 Deepfake 技術做出來的。只要你收集一個人足夠多的真實錄像素材,你就能用AI讓這些名人「發表」任何觀點。 人類開啟了一個從來沒有面對過的潘多拉魔盒。本期視知研究所帶你了解一下,它的可怕之處。 1.
  • Kaggle Deepfake競賽|換臉圖像、AI換臉視頻、高仿語音版Deepfake,這項開掛的技術未來還能走多遠?(3/3)
    而當這些假視頻泛濫,影響的群體越來越廣,引起了各界的重視,抵制,甚至封殺,那麼在這樣的壓力下,「Deepfake」技術還能走多遠?一、各界對Deepfake的評價       目前對深度假貨的報導大多與富蘭克林·福爾(Franklin Foer)在2018年初對這一現象的評價一模一樣:「我們很快就會生活在一個經常被我們的雙眼欺騙的世界裡……我們離現實的崩塌並不遙遠。」
  • Deepfake究竟是造福人類還是一個詛咒呢?
    在初期,少數了解deepfake技術的精英們,為了傳播deepfake技術,創辦了這個論壇,不僅滿足了自己的成就感,也贏得了網友們的尊重。不過,久而久之,網友們在討論學習的過程中,也發現deepfake技術的黑暗面——可以滿足自己的私慾、性幻想,網友們將自己「夢中情人」的面龐,放到了各色視頻中。
  • 《圈套》眼見不一定為實
    其實在6集以前,我也和眾多觀眾一樣,堅定不移的相信姜主播是好人,可是突然來個大反轉,啪啪打臉啊。讓我不禁開始反思人性的善惡。1mm真的就是那麼重要,眼見不一定為實說的就是這樣的吧。4星推薦,期待雙結局!!
  • 人怕出名豬怕壯,出名之後怕Deepfake
    在許多人仍然相信"Seeing is believing"的時候,歷史的進程已經按下快進鍵:數據統計,2019年到2020年這一年,Deepfake視頻數量增長了大概6820倍,從14678個視頻增長到1億個視頻。
  • 我們應該淡化 Deepfake 這個詞語,它在某種程度上將 Deepfake 的...
    你對 Deepfake 有什麼了解呢?你是否知道 96% 的 Deepfake 視頻為色情內容,你是否知道 Deepfake 已經被做成了名人和政要的虛假視頻,造成了不小的影響;你是否知道各個平臺為了打擊 Deepfake 視頻用了哪些騷操作?如果這些你都知道,那你真的很懂新技術和平臺的新政策了。
  • 為什麼我們對deepfake技術又愛又恨?| 有機社會·Post
    Topic:為什麼我們對deepfake技術又愛又恨?Deefake到底是什麼?即便你對這個近來AI界頻頻出現的熱詞不夠了解,對「AI換臉」也一定不陌生。從國外的惡搞歐巴馬、蓋爾加朵,到國內的朱茵換臉楊冪、以及ZAO App的曇花一現。
  • 「深度偽造」deepfake逐漸普及,說不定今年就普及到真題上了!
    ,是計算機的「深度學習」(Deeplearning)和「偽造」(fake)的組合,出現於人工智慧和機器學習技術時代。英文語境中,「深度偽造」涉及多個詞彙,包括deepfake、deepfakes、deep fake、deep fakes等。
  • 商湯入局圍剿Deepfake:推出迄今最大人臉偽造檢測數據集
    魚羊 發自 凹非寺量子位 報導 | 公眾號 QbitAI反deepfake陣營今日又有新成果,商湯入局,獻出迄今最大檢測數據集:包含60000個視頻,共計1760萬幀,是現有同類數據集的10倍。deepfake進化了一版又一版,效果越來越逼真,門檻卻越來越低。
  • 眼見也不一定為實,微信對話生成軟體,你必須了解一下
    眼見也不一定為實,微信對話生成軟體,你必須了解一下劉晶 律師 公眾號:劉律聊法如果有人問我會不會變魔術,那我回答是,當然不會。但是如果我說我雖然不會變魔術,但是我有一堆影視、體育明星朋友,有一大堆企業高管朋友,在支付寶、微信裡有一大堆的錢,我能隨時讓你看我和這些大咖們的聊天記錄,各種購物,轉帳的截圖,我過生日他們都給我發各種祝賀,各種祝福。他們還和我呼朋喚友,稱兄道弟,和我天南海北的侃大山,非要送給我各種發財機會。而且,這一切都有各種聊天截圖為證,你信不信?
  • 又來搞怪 輕鬆製作怪異的Deepfake模因
    據外媒Techspot報導,一種新的時尚正在席捲社交媒體, 尤其是出現在TikTok上的一種怪異的deepfake模因。這些「病毒式」視頻中,各種知名和不知名的人物都在唱 "Baka Mitai",這是一首在一些Yakuza電子遊戲中聽到的Karioki歌曲。
  • 《連線》:AI生成的文字將是最可怕的Deepfake內容
    但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智慧生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為網際網路上一股無孔不入的力量:deepfake文字。《連線》稱,上個月推出的GPT-3是生成式寫作的下一個前沿:一個可以產生令人震驚的句子的AI。
  • "一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網絡"自拍照"生成果體!
    不僅是DeepNude,所有Deepfake軟體均是如此。如波士頓大學法學教授 Danielle Citron 所說,「Deepfake已經成為了攻擊女性強有力的武器。"Deepfake深度造假軟體背後的核心技術都是生成式對抗網絡GAN。GAN通過生成器與鑑別器之間的相互Battle來生成逼真的虛假圖像、視頻或者語音。
  • 【創新應用】"一鍵脫衣"AI再次驚現!Deepfake正用社交網絡"自拍照"生成果體!
    不僅是DeepNude,所有Deepfake軟體均是如此。如波士頓大學法學教授 Danielle Citron 所說,「Deepfake已經成為了攻擊女性強有力的武器。"Deepfake深度造假軟體背後的核心技術都是生成式對抗網絡GAN。GAN通過生成器與鑑別器之間的相互Battle來生成逼真的虛假圖像、視頻或者語音。
  • 奇幻仙蹤:眼見不一定為實,曼達和小曼還是太年輕了
    在生活中,尤其在現在這個網絡發展極其迅速的年代裡,眼見的不一定就是真的,例如你看到一張照片,可能會聯想出各種想法,但這只是憑空想,有可能是有人故意斷章取義,放一張容易誤導人的圖片,來歪曲事實,讓人產生誤會,在現在這個年代裡,真的太平常了。事物的現象有真象與假象之分,假象不是對事物本質的如實體現。所以,眼見不一定為實。
  • 推特發布首個反Deepfake策略草案_科技_澎湃新聞-The...
    10 月份的一份調查報告顯示,目前的 Deepfake 視頻 96% 仍為色情內容,會對廣大女性造成極大的困擾。此外,美國等國家的政客也擔心 Deepfake 會被用於抹黑政客、幹預大選,所以一直非常警惕,並敦促各大科技巨頭出臺相應措施。作為響應,昨天,推特公布了一版關於打擊 Deepfake 策略草案的細節。
  • 徐崢半夜曬照回應肚子大事件,眼見不一定為實,善待孕婦拒絕合影
    對此,徐崢半夜曬照發文,眼見不一定為實。忽遠忽近,忽大忽小,眼見不一定為實。珍愛生命,善待孕婦,拒絕合影!」是啊,有時候眼見的不一定是真實的,比如燈光、角度、或者照片是不是P過等等一系列因素。是啊,如果是女明星就更慘了,該有不少媒體爆料猜測懷孕什麼的。還真是像徐崢說的,眼見的不一定為實呀!大家認同嗎?
  • 徐崢大肚子上熱搜,眼見不一定為實,調侃自己是孕婦
    徐崢大肚子上熱搜,眼見不一定為實,調侃自己是孕婦徐崢和陶虹的婚姻一直是大家熱議的話題,倆人因《春光燦爛豬八戒》相識,一起走過了17年的風風雨雨,徐崢也被傳出很多「緋聞」,不過徐帆接受採訪時表示,他是男人,你讓他佔便宜就佔唄,言下之意是默認身體上的出軌?