Deepfake合成音頻 讓詐騙邁上了新臺階

2020-12-22 科技富能量Plus

在一個Deepfake技術早已被玩濫的時代,我們天天看著蔡徐坤的身子川普的臉打球,吳彥祖的臉在嶽雲鵬上說相聲,這種「玩梗」早已習以為常,大家一笑了之。

但最近發生了使用Deepfake技術更「恐怖」的事,模仿他人音頻從而進行詐騙

美國科技媒體The Verge報導稱,網絡詐騙犯正在利用Deepfake仿製公司高管的語音,合成語音郵件發送至公司員工,對大型公司進行經濟詐騙。

圖源網絡

敲詐者將一份模仿某公司CEO語音的Deepfake音頻以郵件形式發送給公司員工,要求員工「立即提供幫助以完成緊急商業交易」。

值得慶幸的是,這次詐騙並未成功,在收到語音郵件後認為其可疑並將其登記至公司的法律部門。

但在此之前,已有很多利用Deepfake技術進行公司詐騙的案例。

2019年9月,犯罪分子使用語音克隆軟體對英國一家能源公司高管的聲音進行模仿,該公司的執行董事在接聽詐騙電話後,未經思索,就把24萬美元匯入了一個海外帳戶。目前,該罪犯仍未被抓獲。

圖源網絡

前不久,網際網路安全公司賽門鐵克報告了三起Deepfake音頻詐騙案例,犯罪分子通過電話會議、YouTube、社交媒體以及TED演講獲得了公司高管的音頻,然後用機器學習技術複製高管的聲音,致電財務部門要求緊急匯款。

圖源網絡

之前聽過公司裡有人被電話詐騙分子假裝領導,要求匯款的故事,騙子當時還需要說「你知道我是誰嗎?」,現在倒好,有了Deepfake技術,高級詐騙分子可以直接合成領導聲音詐騙了。

不過,Deepfake音頻創作者為了創建更為逼真的音頻,通常需要克服如下幾個因素:

捕獲幾乎沒有背景噪音的高質量音頻(大領導演講);

Pindrop的CEO演示如何合成公眾人物的視

在不需要回電的情況下進行音頻傳送(對話起來容易露餡);

以留言的形式避免與音頻接收者實時交談

也許不過腦子的人,聽到領導的聲音一緊張,就會像上面那幾個案例一樣乖乖打錢了。

更可怕的是,未來如果Deepfake視頻+音頻合成更加成熟,能騙到的人就更多了。我們不得不防,特別是一些「小道消息」傳播出來的視頻和音頻,會越來越「真假難辨」。

日劇《相棒》

都說PS一出,世間再無真圖,隨著Deepfake的進步,難以想像未來我們對「真相」的理解,又會變成什麼樣?

歡迎關注科技富能量,網際網路頂尖科技播客,給您分享最酷科技訊息,最in科技產品!還有最新最潮的語音播報!

相關焦點

  • Deepfake系列——音頻深度偽造(1)
    Deepfake這個概念最早出現在 2017 年底,起初是一名為「deepfakes」的Reddit用戶在網上發布了一段利用名人面孔合成的色情視頻,引發各界關注
  • 《連線》:AI生成的文字將是最可怕的Deepfake內容
    社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智慧生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為網際網路上一股無孔不入的力量:deepfake文字。
  • 一文了解Deepfake 2020發展現狀
    Deepfake的興起,讓視頻和音頻不再是記錄歷史的可靠證據!Deepfake泛濫成災,增長率超330%近些年,計算機視覺技術得到飛速發展。尤其是2014年生成式對抗網絡GAN的提出,讓圖像和視頻合成不斷取得驚人的效果。
  • 黑科技DeepFake檢測方法:利用心跳做信號,還能「揪出」造假模型
    伴隨著這些生成技術的發展,出現了一些被證實有效的 deepfake 檢測方法,這些方法具備較高的分類準確率。然而,目前幾乎沒有任何工作關注 deepfake 視頻的來源(即生成 deepfake 視頻的模型)。 來自賓漢姆頓大學、英特爾公司的研究人員提出了一種方法,利用視頻中的生物信號檢測該視頻是否偽造。
  • 又來搞怪 輕鬆製作怪異的Deepfake模因
    據外媒Techspot報導,一種新的時尚正在席捲社交媒體, 尤其是出現在TikTok上的一種怪異的deepfake模因。這些「病毒式」視頻中,各種知名和不知名的人物都在唱 "Baka Mitai",這是一首在一些Yakuza電子遊戲中聽到的Karioki歌曲。
  • 一鍵Deepfake,人人都能用的視頻自動換臉網站上線
    看來社交網絡上又要出現不少「假視頻」了?如何使用顧名思義,MyVoiceYourFace 可以幫助你創建 Deepfake 視頻,從一個靜止的圖片為上傳的視頻換臉生成假視頻。它可以保留音頻並模仿原視頻的表情瞬間。
  • AI軟體克隆你的聲音,全球詐騙案件已屢次得逞!
    熱點追蹤/深度探討/ 實地探訪 / 商務合作 在2月28號剛於舊金山結束的RSA大會上,一家名為Pindrop的專門檢測語音詐騙的初創公司再次向業內發出警告:網絡詐騙份子已經開始藉助AI軟體克隆聲音進行詐騙了
  • KaggleDeepfake|換臉圖像+視頻+語音,這項技術還能走多遠?(3/3)
    除此之外,一些網絡平臺也對Deepfake採取了反制的措施。推特在去年年底,發布了首個反Deepfake的策略草案。推特表示如果Deepfake內容威脅到某人的人身安全或可能造成嚴重傷害,他們會將該內容從推特上刪除。目前,推特已開始就此項草案向公眾徵集意見。
  • 拍紀錄片、做表情包,盤點2020年Deepfake大事記
    2018 年,Motherboard 記者山姆·科爾發現,網際網路上出現令人不安的新事物。一位名為「Deepfake」的 Reddit 用戶使用人工智慧算法,將色情片主角的臉換成名人的臉,在當事人不知情、未同意的情況下,上傳這些虛假色情片。
  • 這個Deepfake AI語音發生器可以模仿名人的聲音
    儘管多年來使用這類「 deepfake」 製作未經同意的色情影片以及名人和傑出人物的假冒視頻已成為一個大問題,但網際網路上仍然存在一些基於AI的Deepfake生成器。這個令人毛骨悚然的Deepfake語音發生器是使用AI模仿各種政客和名人的聲音的工具之一。
  • 我們應該淡化 Deepfake 這個詞語,它在某種程度上將 Deepfake 的...
    你對 Deepfake 有什麼了解呢?你是否知道 96% 的 Deepfake 視頻為色情內容,你是否知道 Deepfake 已經被做成了名人和政要的虛假視頻,造成了不小的影響;你是否知道各個平臺為了打擊 Deepfake 視頻用了哪些騷操作?如果這些你都知道,那你真的很懂新技術和平臺的新政策了。
  • Deepfake視頻換臉技術,細思極恐,網民口誅筆伐
    這時你可能會覺得你老婆騙了你,但不要衝動,因為有一種技術可以做到,Deepfake畫面技術。請點擊輸Deepfake畫面技術。入圖片描述說到Deepfake之前先舉個例子, 在2018年的時候加彭總統Aii Bongo突然消失了幾個月,引起了社會上的猜測和不安,很多人認為有人謀害總統試圖奪權,為了安撫民心政府公開了一段Aii Bongo錄製的新年致辭。這段異常的致辭讓軍方確信是總統有難還為此發動的兵變。
  • 克隆聲音進行詐騙 AI的安全性再遭熱議
    據西柚了解,Pindrop的CEO表示,他們在過去一年中調查了大約十二起類似的案件,都是欺詐者使用AI軟體「克隆」某人的聲音以進行詐騙。同時,他們還看到了Deepfake音頻作為針對公眾人物的工具出現。
  • 谷歌對Deepfake亮劍:打造鑑假新工具,幫助媒體識別AI造假
    魚羊 發自 凹非寺量子位 報導 | 公眾號 QbitAI谷歌也開始針對Deepfake了。AI造假技術一代更比一代強,假圖片、假信息、假新聞甚至能影響真實社會事件的走向。且不說對於普通人,對於新聞工作者而言,判斷一張圖片是否真實,也並非易事。而這,就有可能造成虛假信息的進一步傳播。
  • Deepfake | 新媒體前沿48
    視頻換臉技術在Deepfake出現之前,最早最廣泛的應用還是在電影領域,為了更好的觀影體驗與視覺效果,那時使用它需要相對較高的技術和資金。現在Deepfake降低了這一門檻,它真正廣泛出現在大眾視野裡是因為Pornhub上流行的Deepfake系列視頻。
  • Deepfake技術被稱現代網絡「易容術」 AI換臉如何打假「李鬼」
    Deepfake是一種換臉技術,可以將圖片或視頻中A的臉換到B的頭上。其名字由深度機器學習(deep machine learning)和假照片(fake photo)組合而成。這項技術不需要操作者具備深厚的專業知識,只要收集到足夠素材,AI就可以完成。Deepfake換臉效果逼真,讓人難以分辨真假,這也引發了眾多倫理和隱私問題。
  • 天津「十四五」發展目標催人奮進 讓高質量發展邁上新臺階 不斷...
    天津「十四五」發展目標催人奮進 讓高質量發展邁上新臺階 不斷增強創新能力 2020-11-30 20:22 來源:澎湃新聞 政務
  • Deepfake換臉技術,細思極恐,網民口誅筆伐,存在太多安全隱患
    Deepfake畫面技術。 說到Deepfake之前先舉個例子, 在2018年的時候加彭總統Aii Bongo突然消失了幾個月,引起了社會上的猜測和不安,很多人認為有人謀害總統試圖奪權,為了安撫民心政府公開了一段Aii Bongo錄製的新年致辭。這段異常的致辭讓軍方確信是總統有難還為此發動的兵變。
  • 專訪:以北京峰會為契機推動中喀合作邁上新臺階——訪中國駐喀麥隆...
    原標題:專訪:以北京峰會為契機推動中喀合作邁上新臺階——訪中國駐喀麥隆大使王英武   新華社雅溫得9月1日電 專訪:以北京峰會為契機推動中喀合作邁上新臺階——訪中國駐喀麥隆大使王英武   新華社記者喬本孝   2018年中非合作論壇北京峰會即將召開之際
  • 用生物信號檢測Deepfake,這個新方法會很快失效嗎?
    讓 Deepfake 越來越逼真的一個核心技術是 GAN(Generative Adversarial Network),也就是生成對抗網絡。它的原理類似左右手互博 —— 生成器生成假視頻,鑑別器用以鑑別真偽,以此不斷提高造假的質量。正因如此,檢測 Deepfake 的方法很容易被超越。