萬聖節要來了!
兩千多年前,凱爾特人相信,嚴寒的第一天,故人的亡魂會回到故居地在活人身上找尋聖靈,藉此再生,這是人死後獲得重生的唯一希望。
而活人則懼怕死人的靈魂來奪生,於是在10月31日這一天人們熄調火爐,把自己打扮成「妖魔鬼怪」把魂靈嚇走。
後來,歐洲基督教會便把11月1日定為「萬聖節」,並一直延續到了今天。
不過,如今萬聖節已經變成了人們娛樂、惡搞的節日,人們尤其熱衷於製造詭異的面部妝效捉摸朋友。
但通常一個令人驚恐的「喪屍妝」要花費十幾個小時,多少有些讓人頭疼。
那麼,有什麼方法可以一鍵生成驚悚的喪屍妝呢?
萬聖節定製『喪屍生成器』現在距離萬聖節還有3天,但小編已經在國外社交網絡上發現一大波喪屍照,我們來一起感受下~
美國女演員碧昂絲·諾利斯
美國演員、歌手威爾 · 斯密斯
emmm,妝效過於專業了。
難道新一季《行屍走肉》又要開播了?還換了演員?
還有兩位總統候選人約瑟夫·拜登和唐納·川普,恐怖又覺得有點搞笑......
看到這裡,有朋友可能會想到這些圖片應該是來自網友們的惡搞。
是的,這些真·喪屍全部出自一款『喪屍生成器』,只需輸入一張照片就可以立刻生成一張喪屍照,而且妝效感人......
不知道大家還記不記得,之前小編曾報導過一款換臉網站Toonify,這個網站可以把人臉切換成動漫臉,效果非常逼真,上線當天訪問量就超過了25萬。它效果是這樣的:
體驗地址:https://toonify.justinpinkney.com/
大眼萌臉,妥妥地定製化漫畫臉,正是這款變臉網站,激發了Josh Brown Kramer的靈感。
既然一張照片可以秒變迪士尼公主,是不是也可以讓它秒變喪屍呢?
因此,這位程式設計師小哥借鑑了Toonify的核心技術,開發了這款『喪屍生成器』,而且為了方便大家使用,也做成了網站形式,可免費使用。
聽到這裡是不是迫不及待想要體驗一下了?
使用教程該網站名為Make Me A Zombie。操作簡單,出圖很快。
https://makemeazombie.com/
只需要點擊連結,選擇Browse輸入一張人臉圖片,點擊藍色圖標即可。
小編沒忍住用愛豆們的照片先體驗了一番,結果.....
不得不說,王一博喪屍臉也是帥的[傲嬌]
欣欣子.....emmm還是在承受範圍內的。
不過,馬爸爸這張[大笑],感覺特效化妝師都畫不出這樣的妝效。
言歸正傳,經過幾張圖片測試,小編也發現兩個問題。一是生成器只針對面部進行識別和處理,如果輸入全身圖,系統會自動刪除多餘的部分,只生成一個人臉照。
二是輸入人臉照的生成效果比全身照更好,而且圖片越清晰效果也就越好。
有了這個「喪屍生成器」,萬聖節不愁惡搞別人的「鬼照」了[奸笑]
Kramer介紹稱,該模型的開發與 Toonify 並無關聯,但使用的是相同的技術棧,即StyleGAN2.
StyleGAN是當前最先進的高解析度圖像合成方法,由英偉達在2018年首次推出。該方法可生成逼真的人臉圖像,其在FFHQ(Flicker-Faces-HQ)數據集上的表現,遠超DCGAN和ConditionalGAN。
但StyleGAN也存在明顯的缺陷,即易出現斑點似的偽影(Artifacts)。
去年12月,英偉達在StyleGAN原有架構基礎上進行了改進,並於CVPR 2020大會上推出升級版StyleGAN2。
除了消除偽影外,StyleGAN2的一項重大更新是風格遷移(Style Transfer)技術。
該研究團隊在論文《分析和改善StyleGAN的圖像質量》中指出,「總體而言,我們改進的模型在現有的分布質量指標和感知的圖像質量方面都重新定義了無條件圖像建模的最新技術。」
簡單來說,該模型可以使用遷移學習技術生成各種風格的肖像,突破了圖像合成的風格限制。我們現在通常看到的人臉動漫化,或者動漫臉真人化本質都是利用的這張技術。
例如:這是利用StyleGAN2在五種動漫和動物角色之間的無縫切換。
https://www.reddit.com/r/MachineLearning/comments/ijkkbb/p_crossmodel_interpolations_between_5_styleganv2/
Kramer利用這項技術創建了一個混合型 StyleGAN2 模型。其中,該模型前層為人類圖像生成器,後層為喪屍生成器。在數據集方面,人類圖像生成器採用的是高質量的人臉數據集FFHQ,它包含70,000張PNG圖像,解析度達1024x1024;殭屍生成器的訓練數據是一組包含300張萬聖節殭屍裝扮的人的圖像,主要來自Pinterest和Google,並對其進行了手動檢測刪除了非殭屍圖像。
最後,在借鑑《StyleGAN2 Distillation for Feed-forward Image Manipulation》論文後,Kramer轉存了50000 個圖像對(分別來自人類生成器和喪屍生成器),並使用 Pix2PixHD 學習圖像對之間的映射。
此外,Kramer也強調其與Toonify有兩點明顯的不同:
值得注意的是,關於殭屍生成器,Kramer從去年開始就有做過嘗試。當時利用的是CycleGAN模型,但採用的數據集是一樣的。起初,Kramer想研發一半是人像一半是殭屍的生成器。他將數百個示例分為兩類,分別學習帶有SVM的超平面,以確定潛在空間中的「殭屍」方向。接著再根據輸入的人臉生成特定的「殭屍」,並以此作為 Pix2Pix 數據的基礎。
但這一過程遇到了兩個問題:一是雖然在生成的人類身上效果很好,但在真實圖像上只能產生中等水平的結果;二是殭屍和種族之間性質不同,我不想創造一個改變種族生成器。
不過,相比之下,基於StyleGAN2架構的模型也有明顯的優勢。比如該模型能夠在2080Ti顯卡上訓練1024 x 1024大小的模型,效率高,而且經過預訓練後的輸出效果也比較好,在這兩點上CycleGAN2和Pix2PixHD相對差之。
引用連結:
https://www.reddit.com/r/MachineLearning/comments/jhl36y/p_turn_yourself_into_a_zombie_with_a_neural/
https://github.com/fastai/course-v3/blob/master/nbs/dl1/crappify.py
雷鋒網雷鋒網雷鋒網(公眾號:雷鋒網)
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。