作者 | 貝爽
相信不少朋友一大早就被這首「螞蟻呀嘿」洗腦了,這個BGM原本出自新加坡歌手郭美美的《不怕不怕》(由 Dragostea Din Tei演唱的O-Zone改編而來)。原歌詞是「Mai a hee ,mai a hu,Mai a ho mai a ha ha」,後來被網友們簡稱為「螞蟻呀嘿」。
昨日,一款以「螞蟻呀嘿」為BGM特效在抖音快手微博B站朋友圈等各大平臺迅速走紅,其僅在抖音上的超話就達到了 9.7 億。
這款特效的玩法非常簡單,只要上傳一張照片,照片上的任何人物、動物、卡通人物都能和你一起扭動脖子唱上一首「螞蟻呀嘿,螞蟻牙呼,螞蟻牙呼呼呼~」簡直不太太上頭,一起來感受下~
巴菲特、馬斯克、馬雲、雷軍一起來「螞蟻呀嘿~~」。
還有德雲天團,雖然是動圖但感覺已經聽到了聲音.太魔幻了
螞蟻呀嘿~~,尖沙咀聞風喪膽的浩南哥在出任務前也可以來上一段。
再魔幻的BGM,THE9唱起來畫面還是那麼美....
看到這裡,你是不是已經打開抖音準備來個合拍了?不過你會發現在抖音上傳照片後只有一個BGM,不能達到特效的效果。
其實,這個「螞蟻呀嘿」並不是抖音特效,而是出自國外的一款AI軟體——Avatarify。
有的朋友看到「Avatarify」可能會有種莫名的熟悉感。其實這款Avatarify 軟體最早出現在2020年初,當時因一則「馬斯克換臉」視頻在國內外一度刷屏。
年初,新冠疫情在全球迅速蔓延,很多人被迫宅在辦公,一位來自俄羅斯的程式設計師Ali Aliev覺得整天在家裡開視頻會議太無趣,他決定用AI換臉惡搞一下同事,於是就有了Avatarify。
在視頻通話過程中,Ali Aliev用Avatarify軟體把自己的頭像換成了世界首富馬斯克,同事們看到大佬出現在了會議中,一時也是驚呆了。
可以看出,視頻中的AI換臉從五官、髮型的效果非常好看不出一點破綻,而且如果講話面部表情也隨之微動,不過不能講話,一講話可能就露餡了。
這則惡搞視頻發布到YouTube網站後,受到網友們熱捧,該項目在 GitHub平臺也迅速登上了熱榜。不過其火爆程度遠不如今日,因為當時還是一個代碼庫,用戶需要有一定的機器學習基礎,才能在電腦上設置。
正是考慮到這一點,最近Ali Aliev將Avatarify做成了一個APP的形式,大大降低了用戶的使用門檻。
如圖所示,它的產品評分超過了4000+,排名一直高居iOS 攝影錄像榜第一。
APP版的Avatarify進行了優化,它包含了十幾種不同的換臉特效玩法,其中就包括在國內迅速出圈的「螞蟻呀嘿」。
就像前段時間的「Clubhouse」,Avatarify在國內也可以說是一夜爆火,而且其火爆程度可以說遠超當下的抖音、快手、騰訊微視的AI特效。
那麼它為什麼能夠做到呢?其中原因當然少不了簡單易用,只需要一張照片,全民皆可參與;效果逼真,特效無違和感;還有就是無論是世界首富、娛樂明星、電影角色、動漫人物都可以被惡搞來娛樂大眾。
不過最重要的還是它魔性的BGM,以及隨BGM實時匹配的五官表情,這個節奏簡直不要太上頭。
近幾年,AI在娛樂領域的應用越來越廣泛,各種AI特效在短視頻平臺層出不窮,抖音、快手、微視也先後打造過款爆火特效。不過相比之下,更多處在AI換臉、換髮型、秒變漫畫臉等圖像合成的階段,還未有聲音與圖像合成的特效產品推出。
不過相信,這次「螞蟻呀嘿」特效爆火之後,各大平臺會抓緊抄作業吧。
想要製作這個同款特效,需要使用兩個軟體:
一個是Avatarify軟體,它僅支持蘋果手機下載,下載時候需要連接VPN,完成數字驗證。另一個是加速器,它可以解鎖Avatarify上更多特效,其中包括「螞蟻呀嘿」。
全部下載完成後,接下來的操作就非常簡單了,找到一張想要惡搞的照片,選擇螞蟻呀嘿」幾秒鐘就可以直接出效果視頻了:
之後就可以任意上傳至抖音、微博等各大社交平臺了。
不過,目前Avatarify僅支持iOS系統。不少用戶也是酸了,每次第一個吃螃蟹的都是iOS.
不過從Clubhouse的案例來看,相信沒多久就會有類似app推出了吧。
小編提示,換臉特效畢竟涉及面部隱私,大家還是要注意隱私安全哦~
附:AI換臉常見方法回顧
雷鋒網秉承以往的風格,從技術角度簡單回顧一下近幾年重要的 AI 換臉技術。
Cycle GAN 可以說是所有人臉轉換嘗試重要早期嘗試。在對抗性生成式網絡(GANs)的風潮中,大家發現只要給定源類別的樣本和目標類別的樣本,GANs 可以便捷地學習到兩個類別之間的轉換關係,就天然地適用於「圖像到圖像轉換」問題,比如同一張風景照的冬天到夏天、一匹馬到一匹斑馬;Cycle GAN 核心思路在於,如果能從源轉換到目標、還能從源轉換回來,就可以認為模型很好地學習到了兩個類別間的轉換關係,也更好地保證了轉換後的圖像的品質。不過 Cycle GAN 的換臉效果並不怎麼好,它畢竟是一個對所有類別的圖像通用的方法。
Face2FaceFace2Face 可以說是一次「標準的、規矩的」的嘗試,它藉助 dlib 和 OpenCV,首先人臉檢測器檢測出源圖片中的人臉、找到人臉上的關鍵標記點,然後再使用針對人臉的 pix2pix 轉換模型把關鍵標記點轉換為目標人臉圖像。也許是因為這個方法沒有給深度學習留下足夠的發揮空間,所以它的效果也一般般。
在此之後,英偉達和 UC 伯克利的研究人員們根據 pix2pix 改進出了 pix2pixHD,提升了人臉圖像的生成效果,而且也依然保持了原 pix2pix 模型的多類別通用能力。
DeepFakes最火熱、最廣為流傳的深度學習換臉模型無疑是 DeepFakes。出現於 2017 年底的 DeepFakes 是一個深度自動編解碼器模型(Autoencoder-Decoder),通過用源人物和目標人物的幾百張照片(越多越好)訓練模型分別識別、還原兩人面部的能力。最後用源人物的照片搭配目標人物的解碼器就可以完成轉換。它也對視頻到視頻的轉換有良好支持。
DeepFakes 的缺點在於,它無法在小樣本上工作,意味著無法憑一兩張照片替換任意兩個人的臉部;模型的訓練過程也需要消耗大量資源。
DeepFakes 剛剛公開時也僅限於技術愛好者們之間交流,也並沒有發布正式的論文。但一些蓋爾·加朵的換臉動圖一下子引爆了關注。今年年初曾經熱炒的「楊冪換臉朱茵」視頻也很可能是用這個方法實現的,因為 DeepFakes 中的編碼器經過足夠的訓練後確實能夠具有將任意輸入人臉(比如朱茵的人臉)轉換為高質量、高逼真度的目標人臉(楊冪人臉)的能力。
DeepFakes 的 GitHub 地址為 https://github.com/deepfakes/faceswap,如今它還在持續更新升級;後來推出了還名為 FakeApp 的桌面應用程式,便於更多 TensorFlow 玩不轉的小白用戶嘗試。
DeepFakes 式的「把目標圖像中的人臉換成另一張臉」可能未來也很難減小樣本數量要求和資源要求,所以也有另一種思路,那就是給定一張人臉圖像,然後根據給定的動作讓圖中的人「動起來」。三星莫斯科 AI 研究中心聯合斯科爾科沃科學技術研究所在今年 5 月發表的一篇論文就帶來了不錯的結果。不僅是真人的照片,他們甚至可以讓油畫中的人自然地開口說話。
以上提到的論文和博客 PDF 打包:
https://ai.yanxishe.com/page/resourceDetail/987
本文由雷鋒網原創,作者:貝爽。申請授權請回復「轉載」,未經授權不得轉載。