大數據文摘出品
來源:The Wall Street Journal
編譯:林苗、易琬玉
人們一般都認為狗是自己最好的朋友。然而,當要分辨一段錄音的真假時,小老鼠才是我們的好幫手。
本周,美國網絡安全會議Black Hat在拉斯維加斯舉行。會上,研究人員提出,小動物們,特別是小老鼠,在識別自然語音元素方面很有天分。
這項成果可能會影響技術公司通過人工智慧來構建系統,去檢測電腦合成的聲音。
"Deepfake"的發展令人擔憂
「小哥哥網戀嗎?我蘿莉音。」
在一大波變聲器和修音軟體的風潮下,變聲蘿莉音、御姐音、正太音幾乎只需要手動調調軟體參數。對於遊戲直男來說,遊戲連麥時聽到萌萌妹子音,想要點開個人主頁勾搭卻發現是個摳腳大漢的概率不低。
變聲這件事情,本身就帶有娛樂性。鬥魚大熱的遊戲主播Zard有一個關鍵時期,就是他開著變聲器變身萌妹聊天,軟萌又調皮的人設吸粉無數。
然而,玩樂歸玩樂。隨著"深度偽造"的發展,偽造的你的聲音可能親媽也聽不出端倪,一旦被犯罪分子利用便會造成大問題。
對聲音的偽造從1999年就開始了,從Microsoft Mike 到谷歌的Tacotron 2,每一次發展迭代都變得更加像人。
因為"Deepfake"的出現,我們再也不能相信「眼見為實」。
近來,專家們非常擔心"Deepfake"類產品的發展速度。通過"Deepfake"應用,計算機可以對數百份照片或錄音進行採樣合成,偽造一些人們沒有說過的錄音或是照片。
前段時間,美國眾議院議長Nancy Pelosi的一段深度偽造的談話視頻出現在社交媒體上,這段視頻經由川普總統分享,在Facebook上獲得了超過250萬次的瀏覽量。早些的時候,美國前總統歐巴馬的臉被「借用」來攻擊川普總統,該視頻在網站上也獲得480萬的瀏覽量。
川普總統本人也難逃一劫,西雅圖電視網曾播放過一段深度偽造的川普演講視頻,視頻中川普總統滿臉通紅,還不時做一些滑稽的表情。
視頻地址:
https://www.youtube.com/watch?v=jzKlTKsHeus
由於深度偽造技術可以運用在包括總統在內的任何官員身上,美國兩黨開始擔心該技術將成為針對美國和其他西方國家發起虛假信息戰爭的最新武器;不法分子很可能會利用這項技術,模仿高層管理人員或某位候選人的言行,再對他們進行網絡攻擊,從而影響各級選舉。
利用人類思維製造「假聲」
人類在語言加工處理過程中,總是傾向於用標準化的思維來表述,並對語音進行壓縮。新型的"Deepfake"機器學習技術正是利用了這一規律,用聽起來非常像人說話,實際上來源不一的聲音來魚目混珠。
「在一個關鍵的時機,假冒某位CEO或某位政治家說一些或者做一些他們並沒有說過、做過的事,可能會引發某種程度上的災難,比如破壞全球金融市場的秩序,或者引發民事或軍事上的衝突。」GSI科技公司數據科學主管、小老鼠研究項目成員之一,George Williams如是說。
這個項目的其他研究人員包括金融信息公司Bloomberg LP的數據科學家Alex Comerford,以及俄勒岡大學的研究生Jonathan Saunders。
Jonathan Saunders認為,「如果你想進一步優化、形成通用版本的'Deepfake'檢測算法,那就需要深入語音學和神經科學來了解聲音聽起來是什麼樣的,以及大腦是如何分析和處理聲音的」。
小鼠具有與人類相似的聽覺系統
研究人員們訓練小老鼠來區分不同的音素,比如與爆破音P、B、T相關的聲音。英語中的48個音素,經常被用於模擬語音方面的研究,也產生了一些比較有挑戰性的研究成果。早期在"Deepfake"方面的嘗試,聽起來都很像機器人。
在識別複雜聲音的能力方面,小老鼠具有與人類相似的聽覺系統。因此,研究人員假設,可以利用小老鼠在合成聲音的數據集上進行測試,以區分哪些聲音是真實的。
研究人員利用條件反射對小老鼠進行訓練強化——聽到真實的音頻片段時,跑向某個位置;聽到合成的音頻片段時,則跑向另一個位置。如果跑對了,會得到獎勵。久而久之,小鼠就學會了如何區分真假兩種聲音。
在測試中,小老鼠檢測到合成聲音的正確率為75%。如果研究人員在實驗中添加一些意外的變量,比如新的聲音或元音,小老鼠的正確率會隨之下降。然而,小老鼠們還是能夠在訓練數據中,把新的、複雜的語音模式區分出來。
一些研究團隊都在利用人工智慧對抗"Deepfake"。然而,數據算法一般都是在訓練集數據範圍內運行的,這也就意味著它們非常容易受到新技術或者超範圍數據的衝擊。本文介紹的團隊用小老鼠進行訓練,卻可以適應這種新的變化。
Jonathan Saunders表示,「目前在聽覺研究領域,小老鼠們還是一張白紙。他們能學習複雜的特徵集,可能也可以學習新的分類問題。」
當然,這並不意味著Youtube需要通過餵養大堆小鼠來識別深度偽造的視頻。但是通過弄明白小鼠是如何具有這樣的識別能力,可以讓我們更好的訓練計算機,進而能夠更好地對抗"Deepfake"。
我們曾如何對抗"Deepfake"
在對抗"Deepfake"這件事上,很多科技公司都進行過努力。
比如DARPA花費數年的MediFor計劃,匯集世界頂尖的研究人員開發自動評估圖像或視頻完整性的技術,並將這些技術集成到端到端。MediFor平臺將自動檢測並分析媒體上的偽造,並推斷視覺媒體的完整性,以便於確定可疑圖像或視頻。然而根據項目參與人員Farid的說法,這個項目目前依舊需要大量的人工分析和篩選。
阿姆斯特丹的Deeptrace就是通過深度學習大量虛假視頻,來餵養、打磨一個深度偽造識別系統。它不僅能夠識別視頻是否是偽造的,還能揭露偽造視頻的製作過程。通過追蹤算法的痕跡,Deeptrace能夠得到了解生成偽造的算法信息。例如,知道整個視頻只是偽造了面部信息還是偽造了整體。
當人們發現一些尋常的東西(比如一通電話或者是一段視頻)可以被輕易偽造時,就像打開了潘多拉的魔盒。我們現在還沒能找到完美對抗"Deepfake"的解決方案。小鼠在聽覺方面的天賦或許能幫我們前進一步,然而對抗深度偽造,依舊任重道遠。
相關報導:
https://www.wsj.com/articles/to-combat-deepfakes-researchers-turn-to-mice-11565256600