"一鍵脫衣"AI再次驚現!Deepfake正在盜用社交網絡"自拍照"生成果體!

2021-01-12 雷鋒網

還記得「一鍵脫衣AI」DeepNude嗎?

去年6月,這款深度造軟體發布僅幾個小時便因訪問請求過大迅速宕機,而其原因是它可以一鍵脫掉女性衣服,製造大量色情圖片。

近日,據調查發現,這款色情的軟體再次出現在了即時消息應用程式——Telegram中。

截止目前,該軟體在TeleGram平臺已經公開發布了約104,852張色情圖片,這一數據還不包括私下分享傳播的圖片。更重要的是,這些圖片70%全部來自社交網絡中的真實女性,甚至包括未成年人。

也就是說,日常在Facebook、微博等社交媒體中分享的自拍照,很可能會被人用來生成「果照」。

DeepNude盯上了「可能認識的人」

這項調查來自美國阿姆斯特丹的網絡安全公司Sensity,這家公司專注於所謂的「視覺威脅情報」,尤其是那些深度造假視頻的傳播。他們調查發現,截至7月底,Telegram平臺七個主要頻道均在使用DeepNude軟體。

該軟體吸引了全球103,585名用戶,其中用戶最多的頻道有45,615人。這些用戶大部分聚集在俄羅斯及東歐周邊地區。

據了解,這款軟體爆火的原因有三點。一是操作非常簡單,只需要一張照片,上傳至軟體後,幾秒就可以自動生成裸照,不需要任何技術知識或者專門的硬體支持。

二是所有人免費使用。不過它也有盈利模式,未付費用戶獲得的裸照後會打上水印標籤或者只有局部裸露,用戶支付1.28美元才可以獲得無水印圖片,但使用權限僅限七天100張。

三是可以獲得熟悉的人的裸照。Deepfake偽造色情視頻已經屢見不鮮,主要以為名人為目標。但根據一項民意調查顯示,大多數用戶對「現實生活中認識的女性」更感興趣,佔比達到了63%。

而DeepNude恰好提供了這樣的支持,任何用戶使用任何照片都可以生成裸照。

從TeleGram平臺的公開數據來看,許多照片中的女性都是普通上班族、大學生,而且這些照片都是來自TikTok、Instagram、Facebook等平臺的自拍照。

需要注意的是,這款深度造假軟體只針對女性。如果上傳一張男性或者其他任何無生命照片,系統也會自動被替換成女生的身體,並識別成相應的器官。

Sensity首席科學家喬治·帕特裡尼(Giorgio Patrini)介紹稱,目前已經超過680,000名女性在未知情的情況下被偽造成了色情圖片,並上傳到了公共媒體平臺。

目前,Sensity公司的相關調查數據已經對外披露,相關執法部門也對此展開了調查。而至此,為何允許該色情軟體出現在社交平臺中,Telegram一直未給出公開答覆。

另外,據Sensity調查顯示,除了Telegram之外,另一家俄羅斯社交媒體平臺VK也發現了DeepNude,而且它已經開始公開為軟體打廣告。

不過,此事件一出後,相關負責人便立刻出面回應否認了這一說法。同時他強調,

VK不容忍平臺上出現此類內容或連結,同時也會阻止分發它們的社區。另外,此類社區或連結並未使用VK廣告工具進行宣傳,我們也進行額外的檢查,並阻止不當內容的出現。

創建者:我不是偷窺狂,只是出於獵奇心

然而,就是這樣一款色情造假軟體,它的創建初心竟然是出於好奇心和對技術的熱忱。

2019年6月27日,DeepNude軟體首次公開上線,隨後不久,系統就因為用戶訪問量過大而宕機。

但就是這幾個小時,這款針對女性的「一鍵脫衣AI」已經在國內外引起軒然大波。

有關「侵犯隱私、性別歧視」等指責聲在Twitter、Reddit、微博等各大社交媒體平臺層出不窮。深度學習先驅吳恩達(Andrew Ng)還發推稱,DeepNude是「人工智慧最令人噁心的應用之一」。

而對於外界的種種指責,它的開發者阿爾貝託(Alberto)卻公開回應稱:

「這個世界還沒為 DeepNude 做好準備!」「我不是偷窺狂。我是技術的愛好者」。

同時他強調,「我不關心裸照之類的。有些人自己不想用,就想著讓別人也用不上,這很蠢。對技術知識的封堵和審查,是無法阻止它的擴散和傳播。」

據了解,Alberto的研發靈感是來自某雜誌上的一個X射線眼鏡。他對AI技術非常感興趣,當發現GAN網絡能夠把白天照片編變成黑夜照片後,便意識到同樣利用GAN也可以將一張穿衣服的照片轉換成一張不穿衣服的照片。正是出於這樣的好奇,最終研發出了DeepNude。

具體來說,DeepNud是基於稱為「 pix2pix 」的開源「圖像到圖像翻譯」軟體構建的,該軟體於2018年由加州大學伯克利分校的AI研究人員首次發現。其核心技術GAN能夠通過識別真實圖像,創造自己的偽造品。比如將白天到夜晚的風景照片或從黑白變為全彩色。

但不管是出於獵奇,還對技術研發的準確,這款軟體確實是濫用AI技術產生了惡劣的影響。如知名作家尼娜·揚科維奇(Nina Jankowicz)表示,DeepNude對世界各地的女性都有巨大影響,尤其是在俄羅斯等社會較為保守的國家。如果公開發表令人信服但虛假的裸照,受害者可能會失去工作,或者面臨伴侶暴力。

Sensity公司也表示,這些虛假的色情圖像或視頻很可能被用做勒索、騷擾的手段。

Deepfake威脅,正在肆虐

不僅是DeepNude,所有Deepfake軟體均是如此。

如波士頓大學法學教授 Danielle Citron 所說,「Deepfake已經成為了攻擊女性強有力的武器。"

Deepfake深度造假軟體背後的核心技術都是生成式對抗網絡GAN。GAN通過生成器與鑑別器之間的相互Battle來生成逼真的虛假圖像、視頻或者語音。

自2017年,Deepfake首次被用於製作色情視頻後——神奇女俠下海事件,社交網絡便開始大量充斥著此類視頻,據統計,在所有Deepfake創作的視頻中,色情視頻佔據了96%。隨著技術的不斷升級,Deepfake的逼真程度已經達到了肉眼難以分辨的地步,同時它也開始被應用到政治領域。如Donald Trump、Barack Hussein Obama,  Elon Musk等名人政客的虛假換臉視頻已屢見不鮮。

據普林斯頓大學教授Jacob Shapiro最新研究結果顯示,2013年至2019年期間,社交媒體已累計發起96次政治運動,而其中,93%為原創內容,86%放大了已有內容,74%歪曲了客觀事實。而其目的多為詆毀政客、誤導公眾、激化矛盾等。

為了應對Deepfake軟體帶來的威脅和挑戰,2019 年,Facebook 斥巨資發起「Deepfake 檢測挑戰賽」(Deepfake Detection Challenge,DFDC)。今年Deepfake 檢測的識別準確率已經達到了 82.56%。

除此之外,學術界以及其他企業團隊也在研發Deepfake的檢測方式。但儘管檢測方式越來越多,準確度越來越高,製造虛假視頻的趨勢依然沒有得到很好的抑制。

究其原因,其一可能是AI生成虛假內容越來越方便,如DeepNude,只需要一張照片,人人都可以上手。而其二,如Sensity公司負責人所說,DeepNude目前還處於法律的灰色地帶。

因此,要想關上 Deepfake 潘多拉的魔盒,需要制度的約束和人心向善的引導。

引用連結:

https://www.buzzfeednews.com/article/janelytvynenko/telegram-deepfake-nude-women-images-bot

https://www.theverge.com/2020/10/20/21519322/deepfake-fake-nudes-telegram-bot-deepnude-sensity-report?scrolla=5eb6d68b7fedc32c19ef33b4

https://www.vice.com/en/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman

雷鋒網雷鋒網(公眾號:雷鋒網)雷鋒網

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • AI 的負面應用,Deepfake 正在盜用社交網絡 「自拍照」生成不雅照
    (原標題:"一鍵脫衣"AI 再次驚現!Deepfake 正在盜用社交網絡 "自拍照" 生成果體!)導語:技術本無罪,善惡在人心。還記得 「一鍵脫衣 AI」DeepNude 嗎?更重要的是,這些圖片 70% 全部來自社交網絡中的真實女性,甚至包括未成年人。也就是說,日常在 Facebook、微博等社交媒體中分享的自拍照,很可能會被人用來生成 「果照」。DeepNude 盯上了 「可能認識的人」這項調查來自美國阿姆斯特丹的網絡安全公司 Sensity,這家公司專注於所謂的 「視覺威脅情報」,尤其是那些深度造假視頻的傳播。
  • 小心,你放在社交網絡上的圖,正被Deepfake機器人用來生成果體照
    別有用心的人,正在盯著你放在社交網絡上的美照,還可能已經被Deepfake拿去生成果照。最近,外媒The Verge曝光了這個現象:在Telegram上,Deepfake機器人泛濫,隨便一張社交網絡上的照片,即可自動生成開車圖。還可以直接攜圖分享。
  • Deepfake一鍵翻新「成人色情視頻」,遭各大平臺封殺
    負面應用正在愈演愈烈。上個月,「一鍵脫衣」AI(DeepNude)盜用社交網絡自拍照生成裸體刷爆網絡,短短幾天,致使68萬女性受害。近日,再次有外媒爆出在Reddit社區中,一個名為r / GeneratedPorn Subreddit正在散播大量色情淫穢作品,而製作這些色情作品的正是造假軟體—Deepfake。
  • 一鍵「脫衣」的AI,為什麼屢禁不止?
    :《一鍵「脫衣」的DeepNude重現!病毒式傳播,裸照生成僅1.5美元,68萬女性受害》,題圖來自:視覺中國你在社交網絡po出了一張自拍照,坐等收贊。但你不知道的是,這張照片可能會被偷偷下載,並且變成一張你的「裸照」。這張裸照或許將被私下分享,也很可能會在地球另一端的某個社交網絡上出現。在不知情的情況下,超過68萬多名女性的假裸照正在以這種方式產生並傳播。
  • 一鍵「脫衣」的AI,為什麼屢禁不止?-虎嗅網
    你在社交網絡po出了一張自拍照,坐等收贊。但你不知道的是,這張照片可能會被偷偷下載,並且變成一張你的「裸照」。這張裸照或許將被私下分享,也很可能會在地球另一端的某個社交網絡上出現。在不知情的情況下,超過68萬多名女性的假裸照正在以這種方式產生並傳播。近期,總部位於阿姆斯特丹的視覺安全智能公司Sensity發現了一個Telegram上的應用,這個bot可以通過deepfake程序,創建某個受害者的計算機生成的「裸照」,並且值得一提的是,只用一張照片,生成效果就相當逼真。
  • 一鍵「脫衣」的 DeepNude 重現:病毒式傳播,裸照生成僅 1.5 美元...
    你在社交網絡 po 出了一張自拍照,坐等收贊。但你不知道的是,這張照片可能會被偷偷下載,並且變成一張你的 「裸照」。這張裸照或許將被私下分享,也很可能會在地球另一端的某個社交網絡上出現。在不知情的情況下,超過 68 萬多名女性的假裸照正在以這種方式產生並傳播。
  • 「一鍵脫衣」軟體重出江湖,受害女性高達68萬,仍在瘋狂傳播
    比如今天要聊一聊的「一鍵脫衣」軟體!最近國外的telegram上就有這樣個人小應用,只要使用一張照片,通過deepfake程序,就可以創建「裸照」,由計算機生產,效果逼真!根據相關數據,目前已經有了68多萬名女性的正常照片被用於假「裸照」的生成,大約有五分之一被公開發布到這款軟體上!那些正常照片均來自私人領域!
  • DeepNude來襲,68萬女性遭一鍵「脫衣」,或面「社會性死亡」
    deepfakes2.0再現,68萬女性遭一鍵"脫衣",或面"社會性死亡"人工智慧技術的發展給我們的生活帶來了諸多的便利,但是總有一些無恥之徒利用著高科技來做一些苟且之事。早前我們應該聽說過deepfakes,它的開發者利用AI換臉技術將明星的臉與普通大眾的臉進行交換,從而通過傳播一些帶有"明星臉"的淫穢視頻來牟取暴利。而如今,deepfakes2.0來襲,其手段更加無恥,社會危害性也更加巨大。
  • DeepFakes進化版DeepNude驚現!一鍵「脫衣「,火到宕機
    這是一款名為DeepNude的應用,次標題被稱為「AI X光「,只需要給它一張照片,即可藉助神經網絡技術,自動「脫掉」衣服。原理雖然理解門檻高,但是應用起來卻毫不費力,因為對於使用者來說,無需任何技術知識,一鍵即可獲取。
  • 《連線》:AI生成的文字將是最可怕的Deepfake內容
    社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智慧生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為網際網路上一股無孔不入的力量:deepfake文字。
  • AI色情創作算法亟需「養料」,非法裸圖數據集「重生」
    這些被迫拍下的裸照正作為色情數據集,成為了最近一種新型技術deepfake porn的訓練」養料」,在網絡上繼續流傳存在。一名博士生的「技術創新」項目:「我只是覺得這很酷」一鍵脫衣、直接換臉,關於deepfake你肯定不陌生。
  • 「AI 大毒瘤」Deepfake 識別賽排名出爐!3.5 萬種算法準確率最高...
    Deepfake 檢測挑戰賽緣何發起?故事源於 2017 年。美國社交新聞網站 Reddit 一位名為 Deepfakes 的用戶利用 AI 把《神奇女俠》女主角 Cal Gadot 的臉嫁接到一個成人電影女主身上,偽造了一段色情視頻 po 上網絡。視頻火了,Deepfake 技術也火了。
  • 一鍵「脫衣」!1秒讓圖片變裸照,這個APP有點可怕!
    本周一AI偏門應用曝光,一鍵直接「脫掉」女性的衣服!顯然,已經不能說它是擦邊球的應用了。這是一款名為DeepNude的應用,次標題被稱為「AI X光」,只需要給它一張照片,即可藉助神經網絡技術,自動「脫掉」衣服。原理雖然理解門檻高,但是應用起來卻毫不費力,因為對於使用者來說,無需任何技術知識,一鍵即可獲取。
  • 增長率超 330%,一文了解換臉軟體 Deepfake 2020 發展現狀
    自 2017 年,某 Reddit 用戶首次將其用來偽造色情視頻開始,Deepfake 造假已逐漸滲透到政治、媒體等多個領域,甚至還威脅到了今年的美國總統大選。與此同時,偽造品的數量也在逐年增長,特別是在 2020 年再次創下歷史新高,達到 49081 個。那麼,快速增長的 Deepfake 有哪些特點,背後有哪些應對措施?
  • 「一鍵脫衣」「裸照群發」:色情AI技術,折射網際網路的陰暗與脆弱
    △ @deepnudeapp 在其推特發表聲明,稱為了防止DeepNude被濫用,宣布關閉這個網站及程序現在這股風颳到了AI界,AI一鍵脫衣、AI一鍵換臉,AI查看女友前科的應用紛至沓來。這不僅僅是色情擦邊球,更侵犯到了隱私,暴露了網際網路的暗面根植的人性慾望、獵奇和窺私。跟扒光女性衣服的Deepnude比起來,換臉軟體Deepfake只能算前奏。如果你對楊冪、朱茵換臉視頻還有印象的話,該特效就是來自Deepfake。
  • DeepNude又開始傳播!已有60萬女性被一鍵「脫光」
    畢竟女性文化助推經濟發展是全世界公認的,看看我們隔壁的島國日本把這個概念玩得有多風生水起,「萬物皆可娘化」可不是吹的。對於民眾而言,看看美女賞心悅目也是一件很正常的事情,但是這事要是走歪了,可就是一個災難。
  • Deepfake技術被稱現代網絡「易容術」 AI換臉如何打假「李鬼」
    Deepfake是一種換臉技術,可以將圖片或視頻中A的臉換到B的頭上。其名字由深度機器學習(deep machine learning)和假照片(fake photo)組合而成。這項技術不需要操作者具備深厚的專業知識,只要收集到足夠素材,AI就可以完成。Deepfake換臉效果逼真,讓人難以分辨真假,這也引發了眾多倫理和隱私問題。
  • 一文了解Deepfake 2020發展現狀
    自2017年,某Reddit用戶首次將其用來偽造色情視頻開始,Deepfake造假已逐漸滲透到政治、媒體等多個領域,甚至還威脅到了今年的美國總統大選。與此同時,偽造品的數量也在逐年增長,特別是在2020年再次創下歷史新高,達到49081個。那麼,快速增長的Deepfake有哪些特點,背後有哪些應對措施?
  • 這是我用過最好用的Deepfake應用Reface,一鍵換臉
    內容詳情Reface(以前為Doublicat)是一款使用AI技術的Deepfake技術的應用程式,可讓用戶在任何視頻和動圖中飾演主角。RefaceAI的執行長兼聯合創始人Roman Mogylnyi表示,Deepfake技術(或稱其為比較貶義的合成媒體)才剛剛進入其創作步伐,RefaceAI的執行長兼聯合創始人Roman Mogylnyi認為,這是一款同名應用程式,其令人毛骨悚然的栩栩如生的輸出您可能已經注意到了最近幾個月出現在您的社交網站上。
  • 秒殺Deepfake!微軟北大提出AI換臉工具和假臉檢測工具
    另一方面,研究人員也在不斷開發能夠檢測deepfake假圖像的識別工具。這場在機器學習圖像識別領域的「矛與盾」之爭愈演愈烈。最近,微軟研究院和北京大學的研究團隊就同時造出了一對「利矛」和「堅盾」,他們發表的兩篇論文分別提出了FaceShifter和Face X-Ray——前者是一種高保真度、可識別遮擋的換臉工具,後者則是能夠檢測偽造人臉圖像的工具。