俗話說,有圖有真相,有片有真相,意思是文本描述不夠真實,但配上圖片或視頻就能提高可信度。雖然過去已經有不少修圖、電影修片專家能合成逼真的圖片,但製作門檻還是有,只是,隨著深度學習(Deep Learning)技術與之結合發展,將為全球社會帶來新興風險。
基本上,深度學習是有助於實現機器學習的一種技術,能為許多科技面向帶來好處,若用在圖片合成領域時,能協助電影、遊戲領域製作,處理上可以更省時,但在現實應用場景中,與假消息結合之後,卻也開始讓圖片偽造門檻降低,不實內容圖片製作變得泛濫,於是,深度偽造(Deepfake)一詞也油然而生。
AI讓視頻換臉應用發展快速
關於Deepfake,根據維基百科說明,是英文「Deep Learning」和「Fake」所混合而成的單詞,也就是將「深度學習」加上「偽造」,專指基於人工智慧的人體圖像合成技術的應用。
而近年來,已經出現了不少相關事件,讓大眾認識到這類AI變換人臉的技術發展,並開始注意到未來應用於假消息時的可能影響。
例如,2017年俄羅斯開發商打造的FaceApp,就利用了AI技術,讓用戶能夠針對人臉來增加笑容,變年輕或變老,甚至變換性別;到了2019年,由中國軟體開發商打造的ZAO,也利用AI技術,讓用戶可將自己的人臉直接套用到電影角色。顯然,這些App使用AI技術打造了有趣的變臉應用,但也額外衍生用戶隱私的問題。
此外,市面上,這類Deepfake的工具已經不少,還包括:DeepFaceLab、Fakeswap、Openfaceswap、Myfakeapp等,其中,有一些是開放源碼軟體。
用AI將知名女星換臉到成人視頻
令人擔憂的是,這樣的技術若遭到大量濫用,可能為全球社會帶來極大的負面影響。舉例來說,在2017年12月,美國知名網絡論壇Reddit有網友發布了一則文章及視頻連接,內容是以AI技術來假造知名女星AV成人視頻,而該片的女主角,竟是飾演電影《神奇女俠》的女主角Gal Gadot。當然,這視頻並非Gal Gadot下海主演,而是利用AI技術產生而成,將知名女星的臉直接替換到某支A片,且真實程度已經到了讓人感到訝異的地步。
顯然,這種使用AI的移花接木手法,在吸引廣大關注的同時,也引起一些人的反思,像是可能用於蓄意破壞他人名聲,或是惡搞,而且,未來人們也可能更難分辨其真偽。而且,在操作手法上,Deepfake除了能假造一個人沒做過的事,也還能夠反向操作,像是假造一個人沒做過的好事。
有視頻將不再有真相?
另一起事件,是在2018年4月有海外網絡媒體Buzzfeed製作了AI假視頻,目的是呼籲大眾要謹慎判斷網絡上的消息。他們發布了一則以AI技術假造的演講視頻,其中是以AI技術來改變前美國總統歐巴馬的致詞內容,其中大部分都是歐巴馬對著鏡頭說話的原始視頻,但有一句話居然變成「川普總統完全就是個笨蛋!」當然,這句話也不是歐巴馬所說,而是利用AI技術改變嘴型與聲音而成,若觀眾不仔細觀察,很難發現異常。
在這樣的Deepfake場景中,我們不難想像到更多的可能性,包括假造候選人、官員或專家沒說過的話,用於政治、社會與經濟等面向的幹擾,又或是假造企業高層或同仁的發言,像是發布企業利多或利空的消息,進而在投資市場獲利,或是幹擾企業運營等。而且,比起文本式的假消息,若是這類造假視頻在網絡上大量傳播,更是讓企業及組織闢謠增添難度。
杜絕假消息會變得更困難
綜觀上述的Deepfake的發展與事件,顯然AI的普及不只是助長了圖片合成技術的發展,從偽造內容的面向來看,Deepfake也讓假消息的威脅更上一層樓。
畢竟,假消息的問題本就是越來越嚴重,尤其是智慧型手機普及之後,現在人人都能夠上網,而且是無時無刻,這也包括了原本對網絡不熟的人們,有些人經歷即時通信與社群平臺的時間較短,可能更容易受到假消息的影響與煽動。再加上我們身處於信息量爆炸的時代,如今又有Deepfake出現,假消息的問題只會變得更嚴重。
譬如說,多數人很可能因為只看標題,加上又有視頻證實,看個幾秒後就快速分享,而在假造視頻泛濫之下,相對地,真實的視頻也會因為立場不同而被說是假造的。至於整個社會環境,還將可能產生更多的對訴訟或司法程序,造成重大影響。
事實上,圖片類的信息早已有人為操弄的空間,像是從單一角度來拍攝視頻,讓觀眾誤會是特定狀況,但從另個角度看並非如此,或是可以截取部分片段來誤導。如今用AI快速產生逼真的造假視頻,將讓問題變得更泛濫。
AI身份冒用讓詐騙手法翻新
Deepfake的影響不僅止於此,還有一個不能忽略的面向,就是AI身份冒用的問題,可能讓網絡犯罪更難防範。舉例來說,原本鎖定企業的商業電子郵件詐騙(BEC),也可能在Deepfake技術加持下,讓身份冒用攻擊的渠道從電子郵件延伸至視頻與電話。
簡單來說,BEC詐騙是網絡犯罪組織策劃的複雜騙局,對方會從許多方面取得企業與合作廠商的交易匯款消息,並以篡改或假冒電子郵件等方式,像是伺機假冒高端主管,或往來供應商的來信,通知要求更改匯款帳號,導致未發現出異常的企業財務主管或老闆上當。
在今年2月FBI發布的2019年度網絡犯罪報告中,更是指出BEC詐騙這類犯罪所造成的損失,已高達17億美元,帶來的危害持續擴大。臺灣近年也有不少企業受害,向警方報案處理。
而這樣的身份冒用攻擊,在Deepfake技術發展之下,也有了新的威脅面向。例如,在2019年下半,有一家英國能源公司的執行長,就因為誤以為接到德國總部執行長的來電,進而聽從對方指示匯錢,因此被訛詐了22萬歐元。其實,這並非真正德國總部執行長的來電,是黑客集團以Deepfake技術偽裝成老闆聲音,所下的命令。
如何因應成各界關心焦點
無論如何,很多人都擔心AI生成視頻的技術,可能會被大量濫用,像是成為操控輿論及名聲的新工具。
對此難題,許多科技大廠也正試圖號召更多好手,發展可識別惡意惡意偽造視頻的偵測模型。例如,在2019年9月,微軟和臉書發起了競賽,名為Deepfake Detection Challenge,就是希望集眾人之力,找出更好的偵測方式。而在2020年6月,全球2千位AI專家參賽,陣容相當龐大,但從公布的比賽結果來看,識別假造視頻成效最高只能認出8成,而且,參賽模型無法準確判讀未知資料,而這也顯示現有技術識別假造視頻仍有困難。
此外,面對AI、Deepfake用於詐騙的威脅,相關做法的發展狀態,也將成為企業與人們關心的新課題。例如,通信平臺能否提供更精準的過濾技術,以及用戶應從不同渠道來進行二次確認,並且創建多個審核的程序。
不論如何,隨技術演進,Deepfake產生的圖片將讓人更無從判斷真假,製作門檻也只會越來越低,全球社會都必須積極應戰。
隨著Deep learning技術在圖片合成領域的發展,在2017年,就有網友以AI將知名女星的臉替換到某個A片,而引起廣大注意。