一、簡介:
據國外的評測機構Motherboard報導說,有外國網友開發出一款名叫DeepNude的PC軟體,只要給DeepNude一張女性照片,藉助神經網絡技術,軟體可以自動「脫掉」女性身上的衣服,顯示出Naked照片。目前DeepNude只能處理女性照片,如果原圖露出來的皮膚越多,那麼處理的效果就會越好;而對於男人的照片,最後得出的結果還是女性部位。但是DeepNude並非萬能,低解析度的照片經修改後,還是有AI拼貼合成的痕跡。當在DeepNude導入卡通人物照片時,影像更完全扭曲。最新消息是DeepNude官網雖然還可以訪問,但是已經沒有任何下載和在線處理功能了。這裡整理出來了一份中文高級版,直接免安裝,解壓即可使用,喜歡的同學可以下載體驗一下。
二、修改說明:
1、調整窗體尺寸,原尺寸為800*800,但很多人的屏幕解析度不高,直接導致軟體界面下方被整體擋住,無法進行任何操作。本次修改窗體尺寸為800*600,足以顯示DeepNude破解版窗體的下方按鈕。
2、全面中文支持:屏蔽初級版水印,直接顯示高級版。高級版界面中的所有文字均為中文。
3、解決某些情況下的閃退:當圖片尺寸被手動調整,並且尺寸變得不合要求時,會發生閃退,增加了這部分的錯誤提示,從而不再莫名其妙閃退。
三、使用說明:
1、下載DeepNude並解壓;
2、右鍵管理員權限運行「DeepNude.exe」;
3 、上傳待轉換圖片;
5、根據你的計算機,需要耐心的等待,大約30秒後就可以成功了!(因尺度過大,故馬賽克處理)
(注意:DeepNude轉換期間,你電腦的CPU和內存可能會達到95%,甚至是100%,配置低的電腦估計會崩潰)
四、閃退及無響應問題
0、僅支持win7及以上64位系統,且對顯卡要求較高
1、如果軟體裝在C盤,軟體啟動時右鍵管理員權限運行;
2、軟體的路徑沒有中文及圖片名稱不能含有中文;
3、建議可以直接把待轉換的圖片放在桌面上;
4、據說不支持png的格式,建議大家用jpg格式去實驗;
長按二維碼關注
▼
關注「哆啦A夢的閒暇時光」公眾號後
回復下面紅色關鍵詞獲取:
190818
Image-to-Image Demo圖像到圖像demo
DeepNude軟體主要使用Image Inpainting for Irregular Holes Using Partial Convolutions 中提出的Image-to-Image技術,該技術有很多其它的應用,比如把黑白的簡筆畫轉換成色彩豐富的彩圖,你可以點擊下方的連結在瀏覽器中嘗試Image-to-Image技術。
https://affinelayer.com/pixsrv/
在左側框中按照自己想像畫一個簡筆畫的貓,再點擊pix2pix按鈕,就能輸出一個模型生成的貓。
Deep Computer Vision in DeepNude
效果
在Image_Inpainting(NVIDIA_2018).mp4視頻中左側的操作界面,只需用工具將圖像中不需要的內容簡單塗抹掉,哪怕形狀很不規則,NVIDIA的模型能夠將圖像「復原」,用非常逼真的畫面填補被塗抹的空白。可謂是一鍵P圖,而且「毫無ps痕跡」。該研究來自Nvidia的Guilin Liu等人的團隊,他們發布了一種可以編輯圖像或重建已損壞圖像的深度學習方法,即使圖像穿了個洞或丟失了像素。這是目前2018 state-of-the-art的方法。
Pix2Pix(need for paired train data)
DeepNude mainly uses this Pix2Pix technology.
論文 Berkeley 2017 paper Image-to-Image Translation with Conditional Adversarial Networks.
主頁 homepage Image-to-Image Translation with Conditional Adversarial Nets
代碼code pix2pix
Run in Google Colab pix2pix.ipynb
Image-to-Image Translation with Conditional Adversarial Networks是伯克利大學研究提出的使用條件對抗網絡作為圖像到圖像轉換問題的通用解決方案。
CycleGAN(without the need for paired train data)
效果
CycleGAN使用循環一致性損失函數來實現訓練,而無需配對數據。換句話說,它可以從一個域轉換到另一個域,而無需在源域和目標域之間進行一對一映射。這開啟了執行許多有趣任務的可能性,例如照片增強,圖像著色,樣式傳輸等。您只需要源和目標數據集。
可能不需要Image-to-Image。我們可以使用GAN直接從隨機值生成圖像或從文本生成圖像。
微軟人工智慧研究院(Microsoft Research AI)開發的新AI技術Obj-GAN可以理解自然語言描述、繪製草圖、合成圖像,然後根據草圖框架和文字提供的個別單詞細化細節。換句話說,這個網絡可以根據描述日常場景的文字描述生成同樣場景的圖像。
效果
模型
進階版神筆:只需一句話、一個故事,即可生成畫面
微軟新研究提出新型GAN——ObjGAN,可根據文字描述生成複雜場景。他們還提出另一個可以畫故事的GAN——StoryGAN,輸入一個故事的文本,即可輸出「連環畫」。
當前最優的文本到圖像生成模型可以基於單句描述生成逼真的鳥類圖像。然而,文本到圖像生成器遠遠不止僅對一個句子生成單個圖像。給定一個多句段落,生成一系列圖像,每個圖像對應一個句子,完整地可視化整個故事。
效果
現在用得最多的Image-to-Image技術應該就是美顏APP了,所以我們為什麼不開發一個更加智能的美顏相機呢?