偽造CEO語音,騙走168萬!音頻版Deepfake詐騙案正在興起,專家:需警惕

2021-01-09 雷鋒網

從圖像、視頻到語音,DeepFake正在建構一個虛假的世界。

我們看到,在馬斯克的這段演講視頻中,Deepfake的換臉技術幾乎達到了人眼無法區別的地步。

不過,隨著技術的不斷成熟,Deepfake卻帶來隱藏的「虛假」風險。自從2017年,一位網友將美國女星和成人電影女主做了人臉交換,偽造了一段色情視頻後,有關濫用Deepfake製造虛假、不良內容的視頻一直充斥於網絡。

為了應對Deepfake換臉技術帶來的種種風險,2019 年,Facebook 斥巨資發起「Deepfake 檢測挑戰賽」,這項挑戰賽一直延續到現在,其識別準確率已經達到了82.56%。

不過,令人擔憂的是,有人又將虛假的矛頭指向了Deepfake語音。有報導稱,一家英國能源公司被敲詐了24萬美元,其背後正是利用的音頻版Deepfake技術。

攻擊者假冒公司CEO製造了一段虛假語音,以電子郵件的方式發給公司下屬員工,要求其向指定帳戶完成匯款。員工介紹稱,假冒音頻中的音調、口吻和口音都與公司CEO頗為相似,對他產生了誤導乖乖轉了帳。其實,諸如此類的詐騙案件已經發生了不止一起。

對此,安全諮詢公司Nisos在分析過偽造音頻後發出警告,Deepfake語音詐騙正在興起,必須提高警惕。

Deepfake語音克隆曝光

最近一家科技公司也收到了一份自稱公司CEO的語音郵件,要求「立即提供協助以完成緊急商業交易」。不過,這次員工發現了語音中的異常,詐騙活動沒有取得成功。

https://www.vice.com/en_us/article/pkyqvb/deepfake-audio-impersonating-ceo-fraud-attempt點擊連結收聽Deepfake偽造音頻

可以聽出這段語音的質量並不是很好,有點機械、不連貫,但員工介紹口音和音調還是基本相似的。

Deepfake語音克隆的質量,主要取決於假冒對象的錄音,數量越多、質量越高,偽造的逼真度也就越高。對於公司高管而言,他們在電話會議,YouTube,社交媒體或者TED演講中的錄音很容易獲得,也由此成為了詐騙團夥的偽造對象。

隨後,該公司將這段偽造的音頻交給了一家安全諮詢公司Nisos。Nisos使用一款名為Spectrum3d的音頻頻譜圖工具,分析了Deepfake的偽造音頻。

Deepfake音頻頻譜圖

可以看到頻譜圖中的音調幾乎一直處於峰值狀態,這與我們日常講話的高低音轉換顯然有很大差異,另外,研究人員稱,他們在音頻中沒有發現任何噪音的痕跡,顯然說明音頻是通過計算機軟體合成的。

與正常人聲的頻譜圖對比來看,結果更是一目了然。音高頻率,幅度更加自然,同時也能夠檢測數微弱的背景噪音。

正常人聲頻譜圖

由於未獲取足夠的樣本,詐騙團夥採用的是何種Deepfake軟體合成技術還不得而知。不過,攻擊者為製造高逼真的欺詐音頻,需要滿足以下幾個條件:

捕獲幾乎沒有背景噪音的高質量音頻。在無法通話的場景下,分階段發送音頻進行溝通以留言的方式進行,避免面對面的交談如何甄別語音欺詐

雖然這次Deepfake偽造音頻存在明顯瑕疵,但只要獲取高質量的語音樣本,其偽造程度還是能夠以假亂真。

另外,Nisos公司表示,音頻的深度偽造不僅與人的語氣有關,還與特定的言語舉止有關。但是這一目標已經能夠實現,比如攻擊者會採用會採用類似於Yandex反向圖像搜索的語音工具,通過大量樣本的建構和訓練,將源語音轉換為目標語音的模型。

目前音頻欺詐案件已經陸續出現,隨著Deepfake軟體的使用更加容易,音頻合成處理的質量越來越高,此類欺詐案件也會愈加普遍。

不過,Nisos公司強調由於技術的局限性,此類欺詐事件還是很容易識破的。比如通過電話溝通確認。

Deepfake技術無法實現連貫的語音通話,因此攻擊者通常採用語音郵件的形式與對方溝通。另外,也可以通過詢問一些只有內部了解到的知識來確認對方的身份。此外,攻擊者會盜用公司高級管理人員的郵箱帳號來與下屬員工進行溝通,因此,加強郵箱安全防護也是非常必要的。

此外,除了經濟詐騙外,攻擊者還可能通過引導員工登錄不安全網站等行為,對公司的網絡或物理資產造成破壞。

引用連結:雷鋒網雷鋒網雷鋒網

https://www.theverge.com/2020/7/27/21339898/deepfake-audio-voice-clone-scam-attempt-nisoshttps://www.theverge.com/2019/9/5/20851248/deepfakes-ai-fake-audio-phone-calls-thieves-trick-companies-stealing-moneyhttps://www.nisos.com/white-papers/rise_synthetic_audio_deepfakes

相關焦點

  • 《連線》:AI生成的文字將是最可怕的Deepfake內容
    雖然這項技術仍在興起,但其被濫用的可能性是如此驚人,以至於科技公司和學術實驗室優先研究並資助檢測方法。社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。
  • AI 的負面應用,Deepfake 正在盜用社交網絡 「自拍照」生成不雅照
    Deepfake 正在盜用社交網絡 "自拍照" 生成果體!)導語:技術本無罪,善惡在人心。還記得 「一鍵脫衣 AI」DeepNude 嗎?去年 6 月,這款深度造軟體發布僅幾個小時便因訪問請求過大迅速宕機,而其原因是它可以一鍵脫掉女性衣服,製造大量色情圖片。
  • 用Deepfake拍紀錄片、做表情包,盤點2020年Deepfake大事記
    研究人員分別與兩家公司合作,利用Deepfake技術創作音頻和視頻,並聘請了一名演員提供「原片」表演。然後,研究人員用兩款軟體分別處理聲音和臉部,拼接成 Deepfake 尼克森。這一項目展示 Deepfake 技術如何講述歷史可能、並且令人信服,而另一項目則預示歷史事實如何通過 Deepfake 活起來。
  • 深度偽造簡介
    Adeepfake today uses AI to combine existingimagery to replace someone's likeness, closely replicating both their face and voice.
  • 又來搞怪 輕鬆製作怪異的Deepfake模因
    據外媒Techspot報導,一種新的時尚正在席捲社交媒體, 尤其是出現在TikTok上的一種怪異的deepfake模因。這些「病毒式」視頻中,各種知名和不知名的人物都在唱 "Baka Mitai",這是一首在一些Yakuza電子遊戲中聽到的Karioki歌曲。
  • Deepfake正在盜用社交網絡"自拍照"生成果體!
    Deepfake偽造色情視頻已經屢見不鮮,主要以為名人為目標。但根據一項民意調查顯示,大多數用戶對「現實生活中認識的女性」更感興趣,佔比達到了63%。Sensity首席科學家喬治·帕特裡尼(Giorgio Patrini)介紹稱,目前已經超過680,000名女性在未知情的情況下被偽造成了色情圖片,並上傳到了公共媒體平臺。目前,Sensity公司的相關調查數據已經對外披露,相關執法部門也對此展開了調查。而至此,為何允許該色情軟體出現在社交平臺中,Telegram一直未給出公開答覆。
  • 「一鍵脫衣」,維吉尼亞州將deepfake濫用列入非法範疇 !
    該州擴大了色情報復法 (revenge porn law)的範疇,將 deepfake 也包含在內,修正後的法律於當地時間 7 月 1 日生效。Sharing deepfake revenge porn is now a crime in VirginiaA state law makes distributing "falsely created" images and videos a misdemeanor.
  • 拍紀錄片、做表情包,盤點2020年Deepfake大事記
    研究人員分別與兩家公司合作,利用Deepfake技術創作音頻和視頻,並聘請了一名演員提供「原片」表演。然後,研究人員用兩款軟體分別處理聲音和臉部,拼接成 Deepfake 尼克森。這一項目展示 Deepfake 技術如何講述歷史可能、並且令人信服,而另一項目則預示歷史事實如何通過 Deepfake 活起來。
  • 中國科大團隊獲Facebook熱門競賽DeepFake Detection Challenge 亞軍(獎金30萬美元)
    Challenge(DFDC)人臉深度偽造檢測挑戰賽於6月13日公布了最終結果,中國科學技術大學網絡空間安全學院俞能海教授團隊-張衛明教授課題組在2265支參賽隊伍中層層突圍,最終取得了全球第二的好成績(獎金30萬美元),這也是國內戰隊所取得的最好成績。
  • DeepFakes=假貨製造機?一文告訴你深度偽造技術的發展現狀
    Deepfakes(深度偽造技術)是什麼? 「深度偽造技術」是一種利用人工智慧將現有圖像、音頻或視頻中的人物替換成其他人的肖像的媒體,這種技術正在迅速發展。 深度偽造文字 人工智慧產生的最好的散文比《憤怒的葡萄》更接近《瘋狂的圖書館》,但是尖端的語言模型現在可以用人文般的智慧和毅力來寫作。舊金山研究公司OpenAI的GPT-2隻需幾秒鐘即可製作出《紐約客》文章或集體討論遊戲場景的文章。
  • 從「深度偽造」到「深度合成」:AI為啥需要一次「正名」?
    自從2017年Deepfake(深度偽造)橫空出世以後,人們驚呼原來AI在造假方面簡直天賦異稟。此後「AI生成內容」技術,特別是GAN算法的突飛猛進更加印證了這一事實。不僅僅是AI換臉,還有AI自動生成文本、語音、圖像、視頻等等一切數字內容。除了AI換臉帶來的色情視頻泛濫之外,人們更進一步擔心AI生成內容技術在隱私侵犯、威脅信息安全、操縱政治選舉等方面帶來全新挑戰。
  • Deepfake Queen在聖誕致辭中跳起了TikTok熱舞
    原來這是一則Deepfake偽造視頻,視頻中的英女王不是真·女王,而是「Deepfake Queen」,白金漢宮背景也是後期合成的效果。不過,雖然對「惡搞」行為和意圖進行了解釋,第四頻道還是遭到了眾多媒體和網友們的批評,指責其不尊重女王。Deepfake版英女王英國女王伊莉莎白二世(Elizabeth II)每年聖誕都會向大英國協國家發表聖誕致辭。
  • 挑戰Deepfake中科大斬獲亞軍,與第一名僅差 0.0005,系Kaggle史上...
    早在去年年底,Facebook 就拿出 1000 萬美元當獎金,舉辦全球範圍內的 Deepfake 檢測大賽。這也是 Kaggle 平台歷史上獎金額度最高的競賽。 後經半年的酣戰,中國科技大學的俞能海、張衛明教授團隊從全球 2265 支隊伍中脫穎而出,獲得亞軍,最終成績與第一名僅差 0.0005。
  • 如何使用變聲專家實現IS語音變聲?
    如何使用變聲專家實現IS語音變聲?IS是國內多人語音聊天平臺,深受廣大在線K歌、聊天、娛樂及遊戲用戶的喜愛。同時還提供多人視頻聊天,那您知道怎麼在IS語音平臺裡實現變聲?感興趣的小夥伴可以看下面內容哦~準備工具:1)變聲專家9.5鑽石版2)頭戴式的電腦耳麥(避免使用入耳式的耳機,容易形成回聲)實施步驟:首先我們打開變聲專家
  • Deepfake一鍵翻新「成人色情視頻」,遭各大平臺封殺
    作者 | 貝爽Deepfake負面應用正在愈演愈烈。
  • 最坑的鑑寶專家:設圈套以17萬騙走他人祖傳古畫,轉手賣了8700萬
    最坑的鑑寶專家:設圈套以17萬騙走他人祖傳古畫,轉手賣了8700萬他帶一幅祖傳古畫去鑑寶,結果被專家17萬騙走,轉手賣了8700萬許多藝術珍寶散落民間已然不是新鮮事,可惜普通人因不懂鑑別古畫真假鬧出糾紛也屢見不鮮,更有黑心鑑寶專家顛倒黑白,憑藉信息差欺騙古畫主人,令人氣憤。河南鄭州市民朱雲家裡有一幅祖傳古畫《嵩陽漢柏圖》,卻不知真假,於是他和弟弟帶這幅畫去河南衛視《華豫之門》參加鑑寶,希望得到專家的指點。
  • 警惕!「冒充好友」詐騙又更新了!這次連「本人語音」都不能信了……
    先讓我們前情回顧一下↓↓冒充領導要求轉帳一條簡訊,10萬塊錢沒了?冒充老婆要「愛的小紅包」他給「妻子」發了愛的紅包後反被拉黑,到底有哪裡做得不對?如果對方給你發來幾秒鐘的語音內容是「我是你朋友本友」「是我本人」而聲音也確實是好友本人你會不會就此放鬆警惕呢?
  • 「深度偽造」的第一個大規模應用:色情機器人
    但是直到最近,深度偽造技術才有了第一個大規模應用:深度偽造色情機器人(DeepNude)。 根據英國Wired雜誌報導,自今年7月份以來,至少有10.4萬名婦女受到即時通訊應用Telegram上運行的深度偽造機器人DeepNude的攻擊,受害人數之多令人震驚。每個月都有成千上萬的人使用DeepNude來創建朋友和家人的裸照,其中一些人不到18歲。
  • 3人偽造老乾媽公章騙騰訊,倒賣遊戲裝備這麼賺錢?
    貴陽警方通報稱,經初步查明:系犯罪嫌疑人曹某(男,36歲)、劉某利(女,40歲)、鄭某君(女,37歲)偽造老乾媽公司印章,冒充該公司市場經營部經理,與騰訊籤訂合作協議。其目的是為獲取騰訊在推廣活動中配套贈送的網路遊戲禮包碼,之後通過網際網路倒賣非法獲取經濟利益。目前,曹某等3人因涉嫌犯罪已被依法刑事拘留。案件正在進一步辦理中。