不僅完美地遷移眼影、眉毛、口紅等基礎妝容,而且能很好地處理美瞳、睫毛、臥蠶等細膩細節,美圖影像實驗室(MTlab)自主研發的這個全新妝容遷移算法可以令愛美的你嘗試各種類型和風格的模特妝容,最終找到適合自己的完美妝容。
虛擬試妝技術一直是美妝、美顏市場最重要的技術之一。當前該領域流行的主流技術為傳統素材貼妝,該技術指由專業設計師按指定格式設計好妝容素材,再利用人臉關鍵點檢測把妝容素材貼到對應的五官位置上。MTlab 研究發現,這類技術存在兩個明顯不足:一,需要專業設計師設計妝容素材,限制大,用戶不能自由選擇自己喜歡的妝容;二,妝容素材直接貼在五官上,浮於表面,很多時候看起來不夠真實。由於傳統貼妝技術的不足,當前市場上的虛擬試妝相關業務還很難滿足大多數用戶的需求,為了改變這一局面,MTlab 自主研發了一套全新妝容遷移技術。具體而言,MTlab 自主研發一種基於深度學習的 MakeupGan(Makeup Generative Adversarial Networks)網絡架構,並推出了一種革新 AI 算法——妝容遷移(Makeup Transfer)。該算法支持用戶自由選取心儀模特妝容並遷移到自己臉上,不僅可以遷移眼影、眉毛、口紅等基礎妝容,還可遷移美瞳、臥蠶、睫毛、五官立體、亮片閃片等細膩細節。遷移效果清晰、自然。目前,美圖旗下美顏相機 APP 已上線基於 MakeupGan 妝容遷移算法的功能——「一鍵仿妝」,用戶可上傳自己的照片,選擇心儀的模特妝容進行仿妝操作。美圖「一鍵仿妝」現共有 60 個模特妝容可供選擇,妝容風格各有不同,如又純又欲的果凍妝、復古少女、奶油桃花妝等等。此外,更多妝容還在持續更新中。我們首先來實測用戶圖像的實際仿妝效果,這裡選擇的妝容風格是「復古櫻桃妝」。用戶首先選中想仿的模特妝容,點擊「仿妝」選擇目標圖像。美圖提供有三種圖像風格,分別為經典、原生和 MEN,下圖選擇的是經典圖像風格;然後,點擊「編輯」可實現目標圖像的自動美化處理,這時用戶可選擇「開啟高清」,可提升目標圖像的肌膚光澤並還原立體五官。下圖沒有選擇開啟高清;最後點擊確認即可生成仿妝後的圖像。圖左:模特妝容;圖中:美化處理後的目標圖像;圖右:仿妝後的目標圖像。對於仿妝後的目標對象,用戶可以自定義「妝容程度」,實現妝容由淡漸濃。最後,用戶也可上傳自己想要仿的任何妝容。這裡選擇了網絡上流行的「宋慧喬妝」,仿妝效果如下所示:接下來詳細解讀妝容遷移技術的研究現狀、解決方案以及 MTlab 的全新妝容遷移算法。妝容遷移是指將目標圖上的妝容直接遷移到原圖上的技術。相比傳統貼妝技術,妝容遷移具有極高的自由度,它可以讓用戶不再局限於設計師設計好的妝容,而是可以自主、任意地從真實模特圖中獲取妝容,極大地豐富了妝容的多樣性。此外,妝容遷移技術不僅可以遷移五官妝容信息,還可以對膚色、光影等信息進行整體遷移。再加上妝容信息直接來源於真實模特圖,因此該技術可以很好地保持妝容的真實度。但妝容遷移屬於目前較新的研究領域,相比於其他 DL 研究任務,需要解決以下兩個主要問題:對於這兩個問題,近些年的一些研究者提出了一些解決方案,具體可以總結如下:魯棒性:不僅在姿態和膚色差異不大的情況下有穩定效果,還要保證在複雜姿態、多變光照、特殊妝容的場景下依然能保持較好效果;
全面性:不僅能遷移眼影、眉毛、口紅等顏色信息,還需要遷移睫毛、美瞳、臥蠶、亮片閃片等較為精確的細節信息。
MTlab 突破技術瓶頸,提出了 MakeupGan 妝容遷移方案,較好地解決了上述兩個問題,並率先將技術落地到實際產品中。核心流程如下圖所示:通過 MTlab 自主研發的人臉關鍵點檢測算法檢測出原始尺寸的原圖和目標圖的人臉點,並做擺正、裁臉等操作得到流程圖中以及後續步驟提到的原圖、目標圖、原圖人臉點和目標圖人臉點;
通過 MTlab 自主研發的五官分割算法將原圖和目標圖的眉毛、眼睛、嘴唇和皮膚分割出來作為後續模塊的輸入;
將目標圖、原圖人臉點和目標圖人臉點輸入姿態矯正模塊,並得到姿態矯正後的目標圖,姿態矯正後的目標圖整體上會和原圖的姿態一致,並且整個臉的五官大小比例會更接近原圖;
把矯正後的目標圖和原圖輸入 G 網絡得到結果圖,根據結果圖和目標圖計算 Cycle consistency loss、Perceptual loss 和 Makeup loss,同時把結果圖、原圖人臉點、原圖五官 mask 輸入 MakeupGan 模塊計算 Makeup gan loss,這些 loss 控制整個網絡的訓練;
將實際裁好後的圖輸入訓練好的 G 網絡可以得到網絡輸出的結果圖,結合 MTlab 自研的顏色遷移算法將原圖的顏色和光照遷回一部分到結果圖上確保結果更加自然,並將處理後的結果圖逆回到原始尺寸原圖中即完成算法過程。
對於 G 網絡結構、Makeup loss、Cycle consistency loss 和 Perceptual loss,該方案參考了論文 PSGan[1]並結合自有方案進行調整。由於 MakeupGan 方案設計了姿態矯正模塊,已經可以較好地進行顯式的姿態適配,因此在 G 網絡中刪除了論文裡的 AMM 結構。Makeup loss 則沿用了 PSGan 的局部五官直方圖匹配 loss。由於論文中 Cycle consistency loss 和 Perceptual loss 裡的 input 和 target 使用的是同一張圖,這在一定程度上會削弱其它 loss 對於五官區域的監督,進而影響妝容的學習。MTlab 利用五官 mask 來調節這一問題。首先對五官 mask 取反並進行邊緣模糊,然後再把模糊後的 mask 歸一化到 (a,1](a>0) 之間得到 mask』。利用 mask』將 loss 調整如下:該模塊可以提升算法的魯棒性,主要包含兩個部分,一個是姿態適配,一個是求解變換矩陣。姿態適配是根據原圖和目標圖的人臉點來判斷兩張臉的朝向是否相同,若不同則將目標圖和目標圖的人臉點進行左右翻轉,使目標圖的朝向和原圖一致;求解變換矩陣是利用目標圖和原圖的人臉點構建最小二乘模型 Y=X*M,通過最小二乘的矩陣求法可以求得一個 3x3 的 M 矩陣,這裡的 M 矩陣本質就是一個變換矩陣,包含平移、旋轉、縮放等原子變換信息。利用 M 矩陣可以將目標圖的像素坐標(x,y)變換到一個新的位置(x』,y』),再用重映射函數 remap 即可將目標圖進行整體變換,變換後目標圖的整體五官大小比例會儘可能的接近原圖五官的大小比例。該模塊是本方案的核心創新模塊,主要保證美瞳、臥蠶、亮片閃片等妝容細節的遷移。MakeupGan 模塊設計了 3 個 D 網絡,分別是眉毛判別網絡 D-Eyebrow、眼睛判別網絡 D-Eye 和嘴唇判別網絡 D-Lip。D 網絡結構的設計主要參考了論文 [2] 採用 SFT 結構,並把 G 網絡改成 D 網絡來使用。具體所做的調整為:(1)把 residual blocks 的數量從 16 調整為 8;(2)去掉 Upsampling 之後的層。此外,Condition 網絡部分使用 4 通道的局部五官 mask 作為輸入,4 通道的 mask 包括:原 mask、對原 mask 進行左右翻轉後的 mask、對原 mask 進行向左鏡像後的 mask、對原 mask 進行向右鏡像後的 mask,而 Condition 網絡的輸出即為 SFT 的 Condition maps 部分。眉毛和眼睛都有左右之分,訓練時會將左右兩部分 concat 起來,所以 D-eyebrow 和 D-eye 的 D 網絡部分為 6 通道輸入,Condition 網絡部分為 8 通道輸入,而 D-lip 的 D 網絡部分為 3 通道輸入,Condition 網絡部分為 4 通道輸入。要訓練 D 網絡並獲得 Makeup gan loss 需要從結果圖和目標圖中獲取各自的五官成分,藉助人臉點即可 crop 出每個五官的矩形框,再用 mask 把非五官區域與掉就得到五官成分。每個 D 網絡可以得到一個 gan loss,這樣就可以得到 3 個 gan loss,即 Eyebrow gan loss、Eye gan loss 和 Lip gan loss。把 3 個 loss 加起來就是本方案的 Makeup gan loss。MTlab 自主研發的基於 DL 的 MakeupGan 網絡架構,不僅可以將無妝容的人物圖片遷移處理為有妝容的圖片,還可以將有妝容的人物圖片遷移為無妝容的圖片,甚至還可以在不同妝容圖片間相互遷移。當前該技術可以處理圖像數據,幫助用戶簡單變美。除了妝容遷移,MTlab 已通過美圖 AI 開放平臺 (ai.meitu.com (http://ai.meitu.com/)) 對外開放了數十種計算機視覺相關技術,提供經市場驗證的專業 AI 算法服務和解決方案。未來 MTlab 還將繼續探索基於視頻數據的趣味玩法,並將通過美圖 AI 開放平臺對外應用。[1] Jiang W, Liu S, Gao C, et al. PSGAN: Pose and Expression Robust Spatial-Aware GAN for Customizable Makeup Transfer[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020.[2] Wang X, Yu K, Dong C, et al. Recovering Realistic Texture in Image Super-Resolution by Deep Spatial Feature Transform[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2018.[3] Li T, Qian R, Dong C, et al. BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network[C]// Proceedings of the 26th ACM international conference on Multimedia. 2018.[4] Park T, Liu M, Wang T, et al. Semantic Image Synthesis With Spatially-Adaptive Normalization[C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020.[5] Chen H, Hui K, Wang S, et al. BeautyGlow: On-Demand Makeup Transfer Framework With Reversible Generative Network[C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2019.如何根據任務需求搭配恰當類型的資料庫?
在AWS推出的白皮書《進入專用資料庫時代》中,介紹了8種資料庫類型:關係、鍵值、文檔、內存中、關係圖、時間序列、分類帳、領域寬列,並逐一分析了每種類型的優勢、挑戰與主要使用案例。
點擊閱讀原文或識別二維碼,申請免費獲取白皮書。
© THE END
轉載請聯繫本公眾號獲得授權
投稿或尋求報導:content@jiqizhixin.com