在一個Deepfake技術早已被玩濫的時代,我們天天看著蔡徐坤的身子川普的臉打球,吳彥祖的臉在嶽雲鵬上說相聲,這種「玩梗」早已習以為常,大家一笑了之。
但最近發生了使用Deepfake技術更「恐怖」的事,模仿他人音頻從而進行詐騙。
美國科技媒體The Verge報導稱,網絡詐騙犯正在利用Deepfake仿製公司高管的語音,合成語音郵件發送至公司員工,對大型公司進行經濟詐騙。

敲詐者將一份模仿某公司CEO語音的Deepfake音頻以郵件形式發送給公司員工,要求員工「立即提供幫助以完成緊急商業交易」。
值得慶幸的是,這次詐騙並未成功,在收到語音郵件後認為其可疑並將其登記至公司的法律部門。
但在此之前,已有很多利用Deepfake技術進行公司詐騙的案例。
2019年9月,犯罪分子使用語音克隆軟體對英國一家能源公司高管的聲音進行模仿,該公司的執行董事在接聽詐騙電話後,未經思索,就把24萬美元匯入了一個海外帳戶。目前,該罪犯仍未被抓獲。

前不久,網際網路安全公司賽門鐵克報告了三起Deepfake音頻詐騙案例,犯罪分子通過電話會議、YouTube、社交媒體以及TED演講獲得了公司高管的音頻,然後用機器學習技術複製高管的聲音,致電財務部門要求緊急匯款。

之前聽過公司裡有人被電話詐騙分子假裝領導,要求匯款的故事,騙子當時還需要說「你知道我是誰嗎?」,現在倒好,有了Deepfake技術,高級詐騙分子可以直接合成領導聲音詐騙了。
不過,Deepfake音頻創作者為了創建更為逼真的音頻,通常需要克服如下幾個因素:
捕獲幾乎沒有背景噪音的高質量音頻(大領導演講);

在不需要回電的情況下進行音頻傳送(對話起來容易露餡);
以留言的形式避免與音頻接收者實時交談。
也許不過腦子的人,聽到領導的聲音一緊張,就會像上面那幾個案例一樣乖乖打錢了。
更可怕的是,未來如果Deepfake視頻+音頻合成更加成熟,能騙到的人就更多了。我們不得不防,特別是一些「小道消息」傳播出來的視頻和音頻,會越來越「真假難辨」。

都說PS一出,世間再無真圖,隨著Deepfake的進步,難以想像未來我們對「真相」的理解,又會變成什麼樣?
歡迎關注科技富能量,網際網路頂尖科技播客,給您分享最酷科技訊息,最in科技產品!還有最新最潮的語音播報!