機器之心報導
作者:張倩、魔王
get 了這個網站,今年萬聖節 C 位就是你的!
AI 是一個盛產陰間產品的領域,這一點似乎已經毋庸置疑。前不久,有人做了個用來生成「大眼萌」漫畫形象的網站「Toonify」,但很快就有人走向了另一個極端:用類似技術做一個喪屍生成器!
利用 Toonify 生成的威爾 · 史密斯漫畫形象。
利用「喪屍生成器」生成的威爾 · 斯密斯喪屍形象。
被玩壞的兩位美國總統候選人。
這種搞笑又驚悚的風格似乎和即將到來的萬聖節很般配。
為了讓大家都用上這個效果,作者還專門做了一個名為「MAKE ME A ZOMBIE」的網站。
網站地址:https://makemeazombie.com/
網站的用法非常簡單:上傳照片,點擊「Make Me A Zombie!」,網站就會自動識別出人臉並生成你的喪屍照:
看了生成效果之後,有人表示想在萬聖節 Party 上做一個照相棚,希望作者能夠開放代碼或 API。
看來,有了這個生成器,萬聖節不用愁換什麼頭像了。
技術細節
據作者介紹,該模型的開發與 Toonify 並無關聯,不過碰巧使用的是相同的技術棧:
該項目首先通過遷移學習得到一個 StyleGAN2 喪屍生成器,然後基於《Cross-Model Interpolations between 5 StyleGanV2 models - furry, FFHQ, anime, ponies, and a fox model》創建了一個混合型 StyleGAN2 模型。該模型中前面一些層來自原始人類圖像生成器,後面一些層則來自喪屍生成器。最後,項目作者閱讀論文《StyleGAN2 Distillation for Feed-forward Image Manipulation》後,使用了 50000 個圖像對(分別來自人類 StyleGAN2 生成器和喪屍生成器),並使用 Pix2PixHD 學習圖像對之間的映射。
不過,該項目所用方法與 Toonify 之間存在兩個細微差異:
該項目通過 crappify 進行輸入數據增強(https://github.com/fastai/course-v3/blob/master/nbs/dl1/crappify.py):有目的地調整圖像大小和引入壓縮偽影;
混合模型可能存在差異,該項目所用模型著重於原始圖像的形狀和方向,而不是喪屍圖像的紋理,而 Toonify 模型正相反。
該項目使用的喪屍數據集包含大約 300 張萬聖節喪屍面具和喪屍妝圖像,主要來自 Pinterest 和 Google,並經過手動篩選刪除非喪屍圖像。
在項目開發過程中,作者遇到了一些困難。去年作者使用 CycleGAN 在相同的數據集上進行過嘗試,但效果一般。最初,項目作者嘗試創建一個生成「一半人類一半喪屍」圖像的生成器。作者將數百個樣本分成兩個類別,並使用支持向量機(SVM)學習分離超平面,以確定潛在空間中的「喪屍」方向。之後作者基於人臉圖像生成特定的喪屍,並以此作為 Pix2Pix 數據的基礎。但這存在一些問題:1)儘管它可以基於人臉數據良好運行,但生成結果平平無奇;2)喪屍和種族之間存在一些問題,作者並不想創造一個種族改變器。
項目作者使用配備 2080Ti 的計算機,在大約一天的時間中基於 1024x1024 圖像訓練模型。具體而言,StyleGAN2 使用的是預訓練的人臉生成器,只需幾小時就能生成喪屍照。Pix2PixHD 部分花費的時間較長,它並未基於面部圖像進行預訓練,其初始輸入為原始面部圖像的模糊單色圖像,經過大約一天的訓練後,它給出了不錯的結果。
和以往很多 AI 應用一樣,這個「喪屍生成器」也引發了部分用戶對於隱私問題的擔憂。不過,網站製作者表示:「我們只用您的照片生成喪屍照。這些照片甚至都不會存檔,因此我們這邊也不會有記錄。」
「MAKE ME A ZOMBIE」網站的隱私政策。
一大波「喪屍照」即將刷屏
在 Twitter 上,已經有不少網友試用了這款喪屍生成器。測試顯示,小 baby 的照片也可以成功轉換,而且還加上了很多牙齒。
然而,並不是每個轉換效果都可以用「可愛」來形容:
帕瓦羅蒂的喪屍照。
甚至有些能檢測到人臉的表情包也可以拿來玩:
受好奇心的驅使,機器之心編輯部也用內部照片進行了測試,結果……
如果你也對這個生成器感興趣,不妨一試,說不定萬聖節最「靚」的仔就是你了~
參考連結:
https://www.reddit.com/r/MachineLearning/comments/jhl36y/p_turn_yourself_into_a_zombie_with_a_neural/