「AI間諜」擾亂美國政壇,眾議院提出法案打擊Deepfake換臉技術

2020-12-15 創業邦

編者按:本文轉自機器之心,作者王淑婷、張倩、李澤南,創業邦經授權轉載。

人工智慧工具 Deepfake 可以生成逼真圖像和視頻,現在竟有人拿它來進行間諜活動了。美國民主黨眾議員 Adam Schiff 在本周四的眾議院情報委員會聽證會上發出警告稱,由 Deepfake 生成的視頻可能會對 2020 年美國大選產生災難性影響。

對此,Schiff 正在挑戰美國《通信規範法》(Communications Decency Act)第 230 條——這可能是當今網際網路世界最重要的一條法律:網際網路服務不必為其用戶的行為負責(正文為:No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider. 交互式計算機服務的提供者或使用者,就非出於己的信息內容,不應被視為內容的出版人及發表人)。

Schiff 要求國會考慮修改法律,以規定對合理審核做法的豁免權。這一主張得到了馬裡蘭法學院教授 Danielle Keats Citron 的回應。他建議國會強制社交網絡平臺「免於」230 條的規定:「目前對第 230 條的解釋,使得社交平臺沒有動力去解決具有破壞性的危險性內容。」

通信規範法 230 條,可能會因為 Deepfake 而改變。與此同時也有議員提出法案建議所有 AI 生成的視頻必須打上標記。人工智慧為何讓美國議員如此恐懼,這件事還要從一個領英頁面說起。

「不存在」的政治新星

造假也是門技術活。有人用 AI 生成的假視頻娛樂大眾,也有人利用 AI 做假視頻打擊對手,但是,還有人用 AI 生成的假圖像當間諜……

這位名叫 Katie Jones 的女郎似乎已經融入了華盛頓的政治舞臺。她看起來 30 歲左右,在頂級智庫工作,擁有由一批專家和權威人士組成的關係網。

她與一名副助理國務卿、一名參議員的高級助理以及經濟學家 Paul Winfree 都有聯繫,後者有望加入美聯儲。

光看履歷,你就會覺得這女人很厲害了。長得好看能力還強,大概就是傳說中的「明明可以靠顏值,非得靠實力吃飯」的那種?

然而,上面介紹的這位女郎其實並不存在,美聯社已對此作出確認。這只是潛伏在領英網站上的大量虛假個人資料之一。

查看過 Jones 領英活動的專家表示,這是這家專業社交網站上典型的間諜活動。作為一個全球範圍的名片展示平臺,領英對間諜有著強烈的吸引力。

「這很像某種國家級別的操作,」丹麥某智庫的一位項目負責人表示,同時 ta 也是幾年前領英上一場間諜活動的目標之一。

美國國家反間諜和安全中心主任 William Evanina 表示,外國間諜經常使用偽造的社交媒體資料來鎖定美國目標。

與 Facebook 家人的關係網不同,領英主要面向求職者和獵頭,其用戶會經常投遞簡歷、建立龐大的關係網並向陌生人傳送文件。

這種將所有人連接起來的方法有助於填補該網站上的數百萬個職位空缺,但也為間諜提供了豐富的狩獵場。這也是西方情報機構所擔憂的。

在過去幾年裡,英國、法國和德國都發出了警告,詳細說明了外國間諜如何通過領英與數千人取得聯繫。

領英在一份聲明中表示,該公司經常對虛假帳戶採取行動,今年頭三個月就刪除了數千個虛假帳戶。該網站還表示,「我們建議您與認識和信任的人聯繫。」

Katie Jones 的這份資料規模並不大,只有 52 個聯繫人。但這些聯繫足夠有影響力,可以向那些接受 Jones 邀請的人灌輸文件的可信度。

美聯社聯繫的幾位專家表示,Jones 資料裡的照片似乎是用電腦程式生成的。「我堅信那是一張假臉」,一位德國藝術家 Mario Klingemann 表示,他接觸人工生成的圖像已有數年時間,可謂閱「片」無數。

「它有所有假臉的特徵」,Mario Klingemann 和其他專家表示,這張照片似乎是用 GAN生成的,GAN 可以生成非常逼真的肖像。

南加州大學創新技術研究所圖形視覺實驗室主任 Hao Li 列舉了一個數字圖表,他表示,Jones 的照片肯定是由電腦程式生成的,證據包括眼睛的不一致,頭髮周圍飄忽的光芒以及左臉頰上的汙漬。

「我敢打賭,這是典型的 GAN 生成圖像」,他表示。

和之前利用 deepfake 技術將某種動作片中的主人公 P 成自己的夢中情人相比,這種技術利用已經上升到了國家安全層面。管理層已無法坐視不理。

現有的「造假」技術到底發展到了何種程度?

現有的造假技術,包括圖像生成、語音合成、視頻合成等,都取得了很好的成果。

圖像生成

拿圖像生成來說,最著名的 GAN,自發布以來,便一直在發展。

去年 9 月,BigGAN橫空出世,其生成圖像質量之高,讓眾多學者驚呼。也因此,該模型被大家稱為「史上最強 GAN 圖像生成器」。

今年 2 月,BigGAN 一作再次發力,改進之後的模型叫 deep。相比之前的模型,該模型的網絡深度是原來的 4 倍、模型參數僅為原來的一半,但效果卻更佳!

這麼多年,GAN 一直是圖像生成界的槓把子,無人超越。還有網友利用 GAN 做了一個網站,叫「此人不存在(thispersondoesnotexist)」。

這個網站小編已經玩過好多次了,雖然有時候生成的圖像古裡古怪,但大部分時候,它生成的圖像都讓人感到驚豔。

來自 thispersondoesnotexist 網站,效果還是很驚豔。

但,GAN 真的是圖像生成的不二選擇嗎?有人不信。

於是最近,DeepMind 提出 VAE,這個模型生成了可以媲美當前最佳 GAN 模型(deep)的圖像。甚至,它在圖像多樣性上還要優於 deep。

你以為這就完了?太天真了。

有人研究生成圖像,還有人研究讓圖像「開口說話」。這些人簡直是魔鬼……

來自三星莫斯科 AI 中心和 Skolkovo 科學技術研究所的研究人員創建了一個模型,利用這個模型可以從一張圖像中生成人物頭像的動圖,而且是開口說話的那種動圖。

想像一下,家裡掛著的肖像照突然開口說話並做出了表情……那畫面太美我不敢想~私以為,這種技術用來拍恐怖片的話,應該效果不錯。

語音合成

去年年中,谷歌科學家 Ye Jia 等人在 arXiv 上發布了一篇用遷移學習完成語音合成的論文。

這項全新的語音合成技術能夠通任意一段參考音頻中提取出說話者的聲紋信息,並生成與其相似度極高的合成語音,參考音頻與最終合成的語音甚至不必是同一種語言。

除了利用參考音頻作為輸入外,該技術還能隨機生成虛擬的聲線,以「不存在的說話者」的聲音進行語音合成。

也就是說,這項技術除了能夠模仿任何人的聲音,還能「無中生有」,隨機生成「不存在的聲音」。

某種程度上來說,這和 thispersondoesnotexist 給人的感覺有點像。只不過生成的一個是語音,一個是圖像罷了。

與這種語音到語音的合成技術不同,加拿大創業公司 Dessa 最近開發的語音合成系統 RealTalk實現的是文本到語音的合成。

這個系統可以僅基於文本輸入生成完美逼近真人的聲音。小編仔細聽過了它給出的樣本,除了語速上的差異,生成效果幾乎和真人一毛一樣。

出於倫理、社會影響等方面的考慮,Dessa 並未公布該項目的研究細節、模型和數據集。所以,好奇的同學,現在也只能眼饞了。

deepfakes

以上的圖像生成和語音,單獨拎出來都足以以假亂真,遑論加上 Deepfakes 呢?

作為去年年初最「黑科技」的應用之一,Deepfakes 可以修改視頻,將視頻中 A 的臉直接移植到 B 的臉上,效果幾乎完美。

不過,網上流傳的一些用 deepfakes 製作的假視頻幾乎利用的都是名人,也因此容易露出諸多破綻。

不妨大膽想一想,如果利用的是 GAN 生成的假臉,那效果會不會更好?

AI 造假技術的影響

deepfake 等 AI 造假技術生成的圖像、視頻逼真,而且技術門檻低,普通人也能上手。但這些技術的出現也在給越來越多的人造成困擾,其中不乏娛樂圈、政壇名人。

好萊塢女星斯嘉麗·詹森就曾多次捲入色情偽造視頻。那些視頻傳播非常廣,而且難以刪除。

斯嘉麗·詹森表示:「很明顯這對我的影響沒有那麼大,因為人們知道色情視頻裡的人並不是我。對我來說這種努力是無用、沒有結果的,但是對於那些因此可能丟掉工作的人來說就不同了。」

斯嘉麗還表示,這項技術對每個人都有威脅,「人們認為密碼可以保護他們,只有公眾人物才有被黑的風險。殊不知,對黑客來說,攻擊誰並沒有太大差別,這隻取決於 ta 想不想攻擊你。」

當然,這種技術的威脅沒有止步於個人層面。

最近,眾議院議長南希·佩洛西(Nancy Pelosi)的一段視頻在社交媒體上流傳開來,視頻中佩洛西形似醉酒、聲音奇怪,視頻速度放慢了 75%。

這段視頻在 Facebook 上獲得了超過 250 萬的點擊量。此前,川普分享了這段視頻,試圖取笑佩洛西的演講模式以及她是否適合擔任總統。

共和黨人和民主黨人現在擔心,這些被操縱的視頻將成為針對美國和其他西方民主國家的虛假信息鬥爭的最新武器。

眾議院情報委員會在一份聲明中表示:「deepfakes 引發了有關國家安全和民主治理的深刻問題,個人和選民在評估他們在屏幕上所見內容的真實性時,無法再相信自己的眼睛或耳朵。」

該委員會主席、眾議員 Adam Schiff 在開幕致辭中說,篡改視頻的傳播為 2020 年總統大選帶來了一種「噩夢般的」場景,讓議員、新聞媒體和公眾「難以分辨什麼是真實的,什麼是虛假的」。

該視頻在 twitter、Facebook、YouTube 等視頻平臺上廣泛傳播,Nancy Pelosi 對視頻篡改者和社交平臺進行了譴責,但 Facebook 卻拒絕下架該視頻,以至於 Nancy Pelosi 譴責說,「該行為無異於這家公司的領導人曾支持俄羅斯在 2016 年對美國總統大選進行幹擾的行為。」

對視頻做出簡單的修改就可以對一個國家造成政治影響,那麼利用 Deepfake 等技術生成的假視頻、聲音造成的影響更是難以估量。因此,政府也在積極尋求應對措施。

如何應對這些難以識別的造假技術?

DARPA(美國國防高級研究計劃局)正在資助尋求檢測假視頻方法的研究者,這也是立法者們討論的話題。去年,共和黨參議員 Ben Sasse 曾提出一項法案,禁止製造和銷售 deepfakes 假視頻。

參議院情報委員會副主席 Mark Warner 在一份白皮書中寫道,視頻操縱技術將引發前所未有的虛假或誹謗性內容浪潮。

共和黨參議員 Marco Rubio 在美國 Heritage Foundation 大會的一次活動上發表講話,概述了他對在即將到來的選舉中可能使用 deepfake 的擔憂。

昨天,美國眾議院情報委員會就 deepfakes 等 AI 造假技術的泛濫召開了聽證會,來自馬裡蘭大學的法學教授 Danielle Citron 認為:目前,我們還沒有絕對的措施來應對 deepfakes,但法律、市場和社會責任的結合是解決問題的必要條件。

與此對應的是,眾議院新提出的一項法案《DEEPFAKES Accountability Act》。該法案由紐約州眾議員 Yvette Clarke 提出,法案全稱為「the Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act」,縮寫為 DEEPFAKES。

這項法案要求任何創建合成媒體文件的人,必須用「不可刪除的數字水印以及文本描述」來說明該媒體文件是篡改或生成的,否則將屬於犯罪行為。

對於 deepfakes 等技術對大選可能造成的不利影響,專家建議政府與社交媒體合作,「向業界施壓,共同打擊極端主義、虛假信息……」,對此類問題作出快速響應。任何反應上的延遲都會助長此類陰謀的發酵。

在國內,deepfake 等技術的使用可能侵犯肖像權、危害社會公共利益乃至國家安全,因此也已經引起監管部門的關注。

民法典人格權編(草案)二審稿作出規定:任何組織或者個人不得以醜化、汙損,或者利用信息技術手段偽造等方式侵害他人的肖像權。其他人格權的許可使用和自然人聲音的保護,參照適用有關規定。」

如何識別假圖像

儘管利用 GAN 等技術生成的人臉非常逼真,但深度學習大牛、圖靈獎得主 Yann Lecun 表示,這些假臉還是可以分辨的。

生成圖像存在一些共同的缺陷,如水斑;背景語音信息不連貫;眼鏡、飾物等不對稱;頭髮光暈;螢光滲透等。

這些缺陷因圖像而異,並非每張圖像都有,但是可以作為判斷生成圖像的輔助證據。

參考內容:

https://apnews.com/bc2f19097a4c4fffaa00de6770b8a60d

https://www.vice.com/en_us/article/qv7zmx/tweet

https://www.cbsnews.com/news/stream/

https://techcrunch.com/2019/06/13/start/

本文(含圖片)為合作媒體授權創業邦轉載,不代表創業邦立場,轉載請聯繫原作者。如有任何疑問,請聯繫editor@cyzone.cn。

相關焦點

  • Deepfake技術被稱現代網絡「易容術」 AI換臉如何打假「李鬼」
    Deepfake是一種換臉技術,可以將圖片或視頻中A的臉換到B的頭上。其名字由深度機器學習(deep machine learning)和假照片(fake photo)組合而成。這項技術不需要操作者具備深厚的專業知識,只要收集到足夠素材,AI就可以完成。Deepfake換臉效果逼真,讓人難以分辨真假,這也引發了眾多倫理和隱私問題。
  • 【雙語彙】Deepfake/深度造假
    然而,當《射鵰英雄傳》裡原本由朱茵扮演的黃蓉換上了楊冪的臉,當美國眾議院議長南希·佩洛西在講話中口齒不清、形同醉酒,你真的可以相信自己的眼睛所見嗎? 事實上,這些全都是deepfake(深度造假)視頻。
  • 深度解密換臉應用 Deepfake
    前言Deepfake 就是前一陣很火的換臉 App,從技術的角度而言,這是深度圖像生成模型的一次非常成功的應用,這兩年雖然湧現出了很多圖像生成模型方面的論文,但大都是能算是 Demo,沒有多少的實用價值,除非在特定領域(比如醫學上),哪怕是英偉達的神作:漸進生成高清人臉 PGGAN 好像也是學術意義大於實用價值。
  • 你愛玩的換臉app 正在催生一個失序的世界
    由於該應用由俄羅斯人開發,美國政壇高度緊張,民主黨的全國委員會發出預警,警告2020年民主黨總統競選團隊不要使用該換臉應用,還有政客建議FBI介入調查。DeepfakeDeepfake是一項人工智慧換臉技術,適用於修改圖片和影像,可以實現人臉的移花接木。
  • Facebook「AI 換臉」打假賽新進程:AWS 攜學界大佬加入,初始數據集...
    DFDC 網站:https://deepfakedetectionchallenge.ai/ 數據集地址:https://deepfakedetectionchallenge.ai/datasetDFDC 新成員
  • ...Deepfake 這個詞語,它在某種程度上將 Deepfake 的含義商品化了。
    你對 Deepfake 有什麼了解呢?你是否知道 96% 的 Deepfake 視頻為色情內容,你是否知道 Deepfake 已經被做成了名人和政要的虛假視頻,造成了不小的影響;你是否知道各個平臺為了打擊 Deepfake 視頻用了哪些騷操作?如果這些你都知道,那你真的很懂新技術和平臺的新政策了。
  • 谷歌 AI 開源 Deepfake 檢測數據集,3000+ 真人...
    與任何變革性技術一樣,這些技術也帶來了新的挑戰。所謂的「Deepfake」就是其中之一,它可以由能夠操縱視頻和音頻剪輯的深度生成模型製作而得。自從 2017 年底首次出現以來,就有許多開源的 Deepfake 生成方法流於市面,導致合成媒體剪輯視頻的數量不斷增加。雖然許多人可能只是出於趣味性的目的,但一旦落入不法分子手裡,這一技術也可能對個人和社會造成極大的危害。
  • AI黑科技之換臉Deepfake的善、惡、醜
    這都是拜最新的黑科技技術deepfake所賜。造「假」的生成對抗網絡Deepfake是深度學習和造假技術的結合。就目前而言,擁有大量高質量視頻的公眾人物才能成為Deepfake的目標。但政治家的深刻見解可能是最具影響力的假新聞形式,並可能對2020年美國大選產生負面影響。這種發展也迫使我們需要更加重視檢測Deepfake內容的技術。
  • 吳恩達盤點2019AI大勢:自動駕駛寒冬 Deepfake已成魔
    Facebook宣布了開啟一項總獎金高達1000萬美元的競賽,開發Deepfake假視頻的自動檢測技術。中國政府頒布了關於禁止傳播虛假視頻的相關規定。美國加州也通過了一項類似的法律,眾議院則在考慮推動對抗Deepfake假視頻的國家層面的立法。這可能是一場曠日持久的「貓捉老鼠」的高科技比拼。
  • 換臉App背後的恐慌:我的臉什麼時候會被偽造,又該如何辨別?
    而如今ZAO的火爆卻證明,換臉對常人的吸引力到底有多大。上熱搜,登頂應用商店,一度被擠爆伺服器,這款簡單的換臉APP獲得了驚人的流量。然而在火爆之後,質疑聲也接踵而至。很多人開始針對ZAO的用戶協議提出批評,直指你的臉有可能被惡意利用,甚至在出現侵權問題時也可能是你來背鍋。
  • 20 種「AI 犯罪」危險度大排名,Deepfake排行第一
    根據報告結果顯示,深度造假(Deepfake)是對遵守法紀公民和社會普遍的最大威脅,因今後被罪犯和恐怖分子用來發動攻擊的可能性極大。Deepfake 會讓人們失去對網絡的信任感,「AI 犯罪即服務」將大行其道AI 專家將 Deepfake 評選為潛在 AI 威脅排行榜第一名,因 Deepfake 不但很難辨識,且很難反制。
  • 「ZAO」作一時爽,但你知道AI換臉的後果嗎?
    這就是最近爆火的AI換臉應用ZAO:「僅需一張照片,出演天下好戲」。目前 ZAO已躍升至iOS免費榜第1位。不過,ZAO的劇情發展可謂跌宕起伏。從一夜爆紅到全民聲討,隱私風險、版權風險等問題引來了口誅筆伐。
  • 音頻版Deepfake詐騙案正在興起,專家:需警惕
    我們看到,在馬斯克的這段演講視頻中,Deepfake的換臉技術幾乎達到了人眼無法區別的地步。不過,隨著技術的不斷成熟,Deepfake卻帶來隱藏的「虛假」風險。自從2017年,一位網友將美國女星和成人電影女主做了人臉交換,偽造了一段色情視頻後,有關濫用Deepfake製造虛假、不良內容的視頻一直充斥於網絡。
  • 一文了解Deepfake 2020發展現狀
    Deepfake泛濫成災,增長率超330%近些年,計算機視覺技術得到飛速發展。尤其是2014年生成式對抗網絡GAN的提出,讓圖像和視頻合成不斷取得驚人的效果。2017年,這項技術被不良分子用來偽造了一段色情視頻,由此該技術被人們稱為「Deepfake」,後來Deepfake的負面應用不斷發酵,並逐漸覆蓋到更廣泛的圖像、視頻,乃至音頻領域。具體來說,Deepfake主要是對人臉進行篡改和重新編輯,包括表情修改,換臉、換口型、合成新人臉四種模式。
  • 《連線》:AI生成的文字將是最可怕的Deepfake內容
    雖然這項技術仍在興起,但其被濫用的可能性是如此驚人,以至於科技公司和學術實驗室優先研究並資助檢測方法。社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。
  • 《三千鴉殺》AI換臉又遭群嘲,「換臉」技術能在影視圈找到出口嗎?
    官微標註換臉片段方便網友跳過(來源微博)隱私憂患下,AI「換臉」技術商業化受限AI換臉應用最早可以追溯到2017年12月。彼時,有名為「deepfakes」的網友將換臉視頻上傳至Reddit網站,可以將照片和視頻中的人臉替換成任何想要的人臉。
  • 科技向善Weekly|用DeepFake對抗DeepFake?(9.13—9.20)
    他指出,2020的新願景是以人為核心的,因為「人」是科技發展的目的,希望能夠彌合數字鴻溝。Penn表示,澳大利亞電信的目標是建立一個能讓每個人都能享受現代通訊技術帶來的便利,享受連接每個人的未來。近期,第一個利用 DeepFake 技術進行換臉的全民級應用 ZAO 引發了一系列爭論,儘管 ZAO 官方已對其中的一些核心問題作出回應並加以改進。但 DeepFake 技術本身所帶來的潛在影響依然存在。如何保證你在網絡上的「自拍」不被濫用?
  • ​【Deepfakes】警惕!深度偽造技術的戰場應用
    深度偽造技術的概念與原理「深度偽造」(Deepfakes)由英文「深度學習」(deep learning)和「偽造」(fakes)二詞結合而來,表明該技術是基於深度學習的一種新型信息篡改與替換手段事實上,深度偽造「換臉」技術早在幾年前就在美國有過重要嘗試,如Cycle GAN,可以說是所有人臉轉換早期的重要嘗試。Face 2 Face則可以說是一次「標準的、規矩的」的嘗試。但當下國外最火熱、最廣為流傳的深度學習換臉模型毫無疑問是Deepfake。
  • 全球首款「反AI變臉刑偵檢測工具」,專用於檢測AI變臉/換臉造假技術
    」,專用於檢測AI變臉/換臉造假技術。 不過,現在美國國防部研究機構 DAPRA 研發出了首款「反變臉」的AI刑偵檢測工具,而其原理,也是以AI攻AI。 DARPA的研究人員表示,該機構將繼續進行更多測試來「確保開發中的識別技術能夠檢測到最新的造假技術。」 從Deepfake到HeadOn:換臉技術發展簡史 DAPAR的擔憂並非空穴來風,如今的變臉技術已經達到威脅安全的地步。