社交網絡上的圖正被Deepfake機器人用來生成果體照

2020-12-06 電子發燒友

社交網絡上的圖正被Deepfake機器人用來生成果體照

AI新媒體量子位 發表於 2020-11-23 11:39:24

小心!

別有用心的人,正在盯著你放在社交網絡上的美照,還可能已經被Deepfake拿去生成果照。

最近,外媒The Verge曝光了這個現象:

在Telegram上,Deepfake機器人泛濫,隨便一張社交網絡上的照片,即可自動生成開車圖。

還可以直接攜圖分享。

跟日常我們發送圖片、接收圖片一樣簡單~

與此相關的數據令人咋舌。

關注Deepfake傳播的研究機構「Sensity」發現,截至到2020年7月,在Telegram公共頻道中已經生成並分享了超過10萬張。

這意味著,生成的圖片總數,包括那些未曾分享過、或是7月以來製作的照片,是遠遠高於這個數字的。

Sensity表示,這些頻道中的大部分用戶,大概有70%來自俄羅斯和周邊國家。

目前,仍然有很多渠道處在活躍狀態中。

Deepfake機器人

這些機器人可以免費使用,不過會生成帶有「FAKE」的紅色字樣水印,或只有部分果體的果體照片。

想要「升級」照片,用戶需要一定的費用,來「揭開」這些照片。

比如,「初級收費」。

用戶需要支付100盧布,折合人民幣8.63元,就可以在7天內生成100張、沒有水印的果體照。

說到這裡,是不是有人覺得很熟悉?

這像是去年夏天火爆網絡,但幾天即下架的「DeepNude」。

對對對,就是那個「一鍵脫衣」。

Sensity也表示,這是DeepNude經過反向工程來打造的一款機器人。不同的是,這個機器人可以自動處理收款。

當然,這些果體照都是假的!

生成出來的果體照會存在斑點、像素化的現象,但也有些很容易被誤認為是真實圖片。

按照去年我們的DeepNude實測結果,果體生成是有諸多「講究」的。

比如,穿的越少,效果越好。如果給了一個衣服特別多的圖片,處理效果非常暴力。

所以,總體來說,美照穿得越少,被生成那種照片的難度越小。

沒錯,技術被濫用,逼得網際網路也得「保守」。

「一鍵脫衣」原理

去年,就有人曾揭秘過DeepNude背後的技術原理。

DeepNude主要使用了計算機視覺領域的3項技術。

圖像修復:Image Inpainting。

這是英偉達研究團隊提出的一個模型,當畫面被嚴重塗抹後,模型仍然能夠恢復出「原來」的圖像。此外,還可以做到去掉圖像中的某些物品。

Pix2Pix:使用條件對抗網絡作為圖像到圖像轉換問題的通用解決方案。

以及2018年SIGGRAPH最佳博士論文獎得主朱俊彥提出的CycleGAN。

CycleGAN使用循環一致性損失函數來實現訓練,而無需配對數據。它可以在普通的馬和斑馬之間進行轉換,也能把夏天的景色變成冬天的景色。

背後的隱憂

正如去年DeepNude所帶來的道德爭議,Sensity對這個機器人表現出一定的擔憂。

曾經一項民間調查顯示,近7成民眾更想要看「私人」的果體照(也就是不是大明星、模特的那種),當中90%的用戶想要看現實生活中熟悉的女生。

那麼,有了這個Telegam機器人,任何在社交網絡上自拍照的女生都可能成為潛在的受害者。

甚至,如果遇到被陌生人偷拍,拿去生成照片,那就更加不堪設想了。

The Verge和Sensity都聯繫了Telegram,詢問他們為何允許在其應用上發布這種內容。

目前尚未得到回覆。

而且對這種技術濫用,當前似乎也沒有比較好的治理方法。

如果你有思考和建議,也歡迎分享~

責任編輯:lq

打開APP閱讀更多精彩內容

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容圖片侵權或者其他問題,請聯繫本站作侵刪。 侵權投訴

相關焦點

  • 《連線》雜誌:AI生成的文字將是最可怕的Deepfake內容
    社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智慧生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為網際網路上一股無孔不入的力量:deepfake文字。
  • deepfake會通過模擬和翻轉,影響聲音的合成
    第一次見這種標題的消息,就看到說deepfake被曝光但是我本人真的覺得。電影和遊戲還是不要用這種方式更好。確定嗎?這次的事件已經是第四次傳言deepfake,但是得到的回覆都是"很久之前就出現過,但是估計是黃牛炒作"云云。但是這不是重點,重點是這次python等一些軟體已經可以做到將圖片翻轉後,替換聲音、圖像,還原出聲音。
  • 什麼是Deepfake?為什麼Deepfake生成的假臉會這麼自然?
    什麼是Deepfake?為什麼Deepfake生成的假臉會這麼自然? Deepfake當前的缺陷是沒法找到足夠閉著眼睛的圖像 隨著2018年年中將近,美國大選活動也開始逐漸升溫,在諸多宣傳中,一種新形式的虛假信息開始在社交媒體上廣泛傳播。
  • 新研究訓練小老鼠充當分類器識別Deepfake假聲音,比計算機更靠譜
    這項成果可能會影響技術公司通過人工智慧來構建系統,去檢測電腦合成的聲音。"Deepfake"的發展令人擔憂「小哥哥網戀嗎?我蘿莉音。」前段時間,美國眾議院議長Nancy Pelosi的一段深度偽造的談話視頻出現在社交媒體上,這段視頻經由川普總統分享,在Facebook上獲得了超過250萬次的瀏覽量。早些的時候,美國前總統歐巴馬的臉被「借用」來攻擊川普總統,該視頻在網站上也獲得480萬的瀏覽量。
  • 找到那張假照片,對抗Deepfake之路
    Deepfake很全能?心跳、脈搏來「打假」FakeCatcher基於的原理是人類心跳時產生的細微膚色差異,而具體到應用上,則是與指尖脈搏血氧儀以及Apple Watch用於測量運動心率相同的技術——光電容積描記法(簡稱PPG)。
  • 一個模型擊潰12種AI造假,各種GAN與Deepfake都陣亡
    這就是Adobe和UC伯克利的科學家們發表的新成果。有網友表示,如果他們把這項研究用來參加Kaggle的假臉識別大賽,那麼將有可能獲得最高50萬美元獎金。然而他們並沒有,而是先在ArXiv公布了預印本,並且還被CVPR 2020收錄。最近,他們甚至將論文代碼在GitHub上開源,還提供了訓練後的權重供讀者下載。
  • 帶你解析2020 Kaggle DeepFake 排行榜前1.5%技術方案
    Deepfake -假視頻檢測截圖來自kaggle官網最近的2020 Deepfake假視頻檢測挑戰賽,旨在幫助世界各地的研究人員檢測線上視頻及語音是否被偽造和篡改,幫助提升線上人權和保護網絡上個人隱私。
  • 研究人員用頻率分析來識別Deep-Fake圖像 算法造圖會...
    Horst Görtz Institute的的研究人員和「大規模對手時代的網絡安全」(Casa)卓越集群開發了一種有效識別深度偽造圖像的新方法。這種方法被讓那些由計算機算法而不是人類創建的偽造圖像「一覽無遺」。為此,他們還分析了頻域中的對象,這是一種已建立的信號處理技術。
  • 想用GAN和Deepfake瞞天過海,沒那麼容易:這是Adobe和加州伯克利的...
    來自 Adobe 和加州伯克利的研究者發現,僅僅在一種 CNN 生成的圖像上進行訓練的分類器,也可以檢測許多其他模型生成的結果。或許,GAN 和 Deepfake 在「瞞天過海」上也不是萬能的。近來,諸如生成對抗網絡(GAN)的深度圖像生成技術快速發展,引發了公眾的廣泛關注和興趣,但這也使人們擔心,我們會逐漸走入一個無法分辨圖像真實與否的世界。
  • 用生物信號檢測Deepfake,這個新方法會很快失效嗎?
    讓 Deepfake 越來越逼真的一個核心技術是 GAN(Generative Adversarial Network),也就是生成對抗網絡。它的原理類似左右手互博 —— 生成器生成假視頻,鑑別器用以鑑別真偽,以此不斷提高造假的質量。正因如此,檢測 Deepfake 的方法很容易被超越。比如在 2018 年,就有研究通過人物的眨眼是否自然來判斷視頻的真偽。
  • ai在真實的精確度上其實還有待檢驗
    人工智慧的社會影響被無限放大了,外國中東非洲等地區的法律對deepfake為了保護隱私,基本上都無法立案查處。在國內,deepfake泛濫已經達到上升到了一種民事侵權的高度,刑事上則只要查到是人工製作的,就處以非法侵入他人住宅,拘留5天以下的刑事處罰。
  • 茶藝照什麼意思什麼梗、怎麼拍 社交網絡颳起風潮
    妝容的痕跡要輕,表情清純卻要略帶心機,穿著要少但不色情……時下,社交網絡上正颳起一股「茶藝照」風潮,這種遊移於色情邊緣的「茶藝照」盛行背後,是有人或跟風好玩,或博取流量,或引異性關注。無論目的如何,這種風潮已對中國傳統茶文化圈層產生了「衝擊」和消解。  如何抵禦亞文化越界衝擊,引發00後群體、文化學者、網絡觀察家們的思考和討論。
  • DeepFake檢測新思路:用心跳做"信號",背後的"造假"模型也無處可逃
    當前的技術主要是根據解析度、三維信息、眼動等來區分,因為翻拍的照片解析度比直接從真人上採集的照片在質量、解析度上有差別。近日,賓漢姆頓大學和英特爾的研究人員開發了一種算法,號稱能用視頻中的生物信號檢測這個視頻是否是偽造的。
  • Deepfake陰影下的「人臉識別時代」全面到來!我們可能遭遇什麼危險?
    Deepfake的陰影籠罩人臉識別時代首先,為什麼近些年來人臉識別發展的如此的火熱、迅速,它到底能解決什麼問題,從而產生巨大的商業價值?實際上,人臉識別本質上也就是一種身份識別技術。如今,身份識別在各個領域都至關重要,而身份識別的方法目前主要有三種。
  • 專訪「多智能體」先驅麥可:當AI學會人類社交,「機器人總動員...
    就像人生活在充滿豐富社交的社會當中,AI也可以學會人類的社交方式,並與其他智能體達成協同。」在2019T-EDGE全球創新大會上,牛津大學計算機科學系主任麥可·伍爾德裡奇(Michael Wooldridge)闡釋了他對於未來AI趨勢的洞見。這種多智能體,指的就是多個AI系統互聯互通所形成的一個整體。麥可·伍爾德裡奇是人工智慧界的學術先驅,在多智能系統方面頗有建樹。
  • 表徵學習、圖神經網絡、可解釋的 AI,ML & 機器人七大研究進展一覽
    人類一直是這樣做的,但是將我們的能力轉譯給機器人或者人工智慧體時,我們經常需要指明希望智能體推理出什麼對象或者其他的預測。但一個在很大程度上難以獲得確切答案的問題是:符號從何而來?更籠統地說:我們應該如何表徵世界,以便機器人在解決複雜的現實問題時能夠快速有效地做出決策?
  • ...越南網際網路公司VCCorp打造新社交媒體網絡 Lotus,或挑戰Facebook
    據 KrASIA 報導,Tiki 的 CEO 表示,此次收購將使 Tiki 能夠使用 Ticketbox 的成果和技術,其中包括了 Ticketbox 開發的一個可供觀眾分享、討論、評論電影和活動的社交網絡,以及此前在大數據和機器學習領域的研究成果。Tiki 成立於2010年,是越南目前第二大電子商務平臺。此前,京東和越南的獨角獸 VNG 均投資了 Tiki 。
  • 海馬體照相館:讓證件照成為潮流的一部分
    也不知是從什麼時候開始的,紅底白襯衫的結婚登記照悄然走紅網絡,一開始是明星藝人們在曬,後來素人們也加入了進來,全新的潮流在社交網絡中誕生。需求誕生之後自然會有人出來滿足他們,海馬體照相館便應潮流而生。黃逸涵用了7年時間將海馬體照相館開進了52座城市,醜到不敢見人的證件照在這裡成為潮流的一部分。