美國科技網站Motherboard率先揭露,一款名為DeepNude的網站App,利用AI人工智慧衍生的「深度造假」技術,只要上傳1張女性的照片,就可將照片中女性變裸體。該App的網站馬上被灌爆,開發者隔天宣布停用,但已引發爭議。反對人士直斥,該類App會助長網路霸凌,根本不應問世。
目前利用「深度造假」技術合成的影片和照片,都需要大量的原始照片或影片,才能利用AI技術,產出十分逼真的假照片或影片。不過DeepNude只需要把1張女性照片上傳至網站,就能產生該名女性的裸照。該App只適用女性照片,若是使用網路免費版,產出的裸照會有「造假」浮水印,但使用者若掏50美元購買下載App,裸照就不會有浮水印。
「沒想到會受歡迎」 App開發者致歉
反報復性色情影片團體Badass創辦人鮑登直斥此App「太恐怖」,「現在任何人即使沒拍過裸照,都可能成為報復性色情影片的受害者」。App開發者Albert回應,自己不是色情偷窺狂,只是熱愛科技,因為「好玩和熱愛」才設計這款App,沒想到會大受歡迎,也無法控制網站流量。
DeepNude只是「深度造假」技術的最新爭議。馬裡蘭大學法律系教授席鐘錶示,「深度造假技術的成品非常真實,很難揭穿造假的影片或音訊」。好萊塢女星「黑寡婦」史嘉蕾約翰森(Scarlett Johansson)去年就出現在造假的色情影片內。
推特和Reditt等網站,試圖禁止「深度造假」色情影片,但因該技術容易取得又便宜,成果有限。專家也擔心,深度造假技術恐威脅國家安全,例如在選舉時製造一般人很難辨識的假新聞,影響選情。
【報你知】「深度造假」(deepfake)
該詞2017年出現,是英文「深度學習」(deep learning)和「造假」(fake)的混合詞,指的是利用AI人工智慧技術「生成對抗網路」,把現有的照片或影片,與原始來源的照片或影片重疊或結合,合成為新的照片或影片。
該技術被不法人士用來製作虛假的名人性愛影片和報復性色情影片,或是製造假新聞或惡作劇。
著名的深度造假受害案例包括女星史嘉蕾約翰森的假色情影片,以及美國眾議院院長裴洛西看似口齒不清酒醉的影片。
川普寂寞凍未條 大坂城前狂對人妻示好
北加福特經銷商傳槍聲 前員工擊斃2上司飲彈亡
川普:24日對伊朗祭出重大新制裁
正妹與豬豬遊泳 父母目睹她被3鯊魚五馬分屍慘死
高空跳傘飛機墜毀11死 夏威夷當局證實無人生還