通過引入 ML,谷歌 ARCore 實時自拍 AR 的逼真效果更進一步

2021-01-14 雷鋒網

雷鋒網 AI 科技評論按:ARCore 是谷歌於去年 2 月份正式推出的 增強現實(AR)軟體開發工具包,給開發者提供了一個開發 AR APP 的平臺。不到一個月前,谷歌正式推出 ARCore 1.7 版本,為其添加了前置攝像頭 AR 自拍能力以及動畫效果支持;而日前,谷歌又為其引入了機器學習技術,使其實時自拍 AR 的逼真效果更進一步,該技術相關的文章發布在谷歌 AI 的官方博客上,雷鋒網 AI 科技評論編譯如下。

增強現實(AR)通過將數字內容與信息疊加到物質世界的真實場景中,來讓人類實現超越現實的感官體驗。例如,谷歌地圖的 AR 功能,能夠在現實場景中疊加方向信息來為你指路。藉助於 Pixel 相機中的 Playground 模式,你可以使用 AR 從不同的視角看世界。並且通過藉助於最新發布的「YouTube Stories」以及 ARCore 全新的面部增強(Augmented Faces)API,你可以在自拍上添加動畫面具、眼鏡、帽子、皮膚等特效。

實現這種 AR 功能的關鍵挑戰之一,就是以合適的方式將虛擬內容錨定到現實世界:這一過程需要一套能夠追蹤到每一次微笑、皺眉或假笑的高動態表面幾何結構的獨特的感知技術。

ARCore 的 3D 網格以及它能實現的一些特效

為此,我們引入了機器學習(ML)技術來推斷近似的 3D 表面幾何結構,並且僅需要用到一個單攝像頭輸入而無需使用專用的深度傳感器。這種方法利用面向移動 CPU 界面推斷或其可用的全新移動 GPU 功能的 TensorFlow Lite,實現了逼真的實時 AR 效果。與「 YouTube Stories」 全新的創作者特效所利用的技術一樣,這項技術已通過最新的 ARCore SDK 和 ML Kit Face Contour Detection API 向廣泛的開發者社區開放。

用於自拍 AR 的機器學習工作流

我們的機器學習工作流由兩個協同工作的實時深度神經網絡模型組成:一個是探測器,它在整張圖像上運行並計算出面部位置;另一個是通用的 3D 網格模型,它在探測器計算出來的面部位置上運行,並通過回歸預測近似的表面幾何結構。精確地裁剪面部能夠極大地減少對一般的數據增強的要求,例如由旋轉、平移和比例變換組成的仿射變換(affine transformations)等,同時讓網絡將大部分性能投入於預測坐標來提高其準確性——這對於錨定合適的虛擬內容至關重要。

裁剪完所關注的位置後,該網格網絡一次僅應用於一個單幀,並利用加窗平滑(windowed smoothing)來減少面部處於靜態時的噪音,同時避免在大幅移動期間出現的延遲。

活動中的 3D 網格

針對 3D 網格,我們採用了遷移學習,並訓練了一個具有多個目標的網絡:該網絡能夠同時地基於合成、渲染的數據預測 3D 網格坐標以及基於類似於 MLKit 所提供的帶有注釋的、現實世界的數據預測 2D 語義輪廓。最終的網絡為我們提供了基於合成數據乃至現實世界數據的合理的 3D 網格預測。所有模型都在源自於地理學多樣化的數據集的數據上進行訓練,並接著在平衡、多樣化的測試集上進行定性和定量性能的測試。

3D 網格網絡接收經裁剪的視頻幀作為輸入。由於它不依賴於額外的深度輸入,因而也可以應用於預先錄製的視頻。該模型不僅輸出 3D 點的位置,還輸出在輸入中存在併合理對齊的面部概率。一種常見的替代方法就是為每個地標預測出 2D 熱圖,但這種方法並不適用於深度預測,並且對於如此多的數據點來說,使用這種方法耗費的計算成本非常高。

通過迭代自展和精煉預測,我們進一步提高了模型的準確性和魯棒性,同時也將數據集發展成為愈加具有挑戰性的實例,如鬼臉,拍攝角度傾斜以及面部遮擋等。此外,數據集增強技術也擴展了可用的 ground truth 數據,並開發出了對攝像頭瑕疵等人工產品問題或極端光照條件具有彈力的模型。

數據集擴展和改善路徑

專為硬體定製的界面

我們使用 TensorFlow Lite 進行設備內置的神經網絡推理。新推出的 GPU 後端加速能夠有效提升性能,並顯著降低功耗。此外,我們還設計了具有不同性能和效率特性的一系列模型架構,來覆蓋到更加廣泛的消費級硬體。較簡單網絡之間的最重要的區別就在於殘差塊(Residual Block)設計和可接受的輸入解析度(最簡單模型中的輸入解析度為 128×128 像素,而最複雜模型中的輸入解析度為 256×256)。同時,我們還改變了層數以及子採樣率(輸入解析度隨網絡深度的減少而減少的速度)。

每一幀的推斷時間: CPU vs. GPU

這一系列的優化的結果就是:使用更簡單的模型帶來了實質性的加速,同時也將 AR 特效質量的降低幅度最小化。

最複雜模型(左)和最簡單模型(右)的比較:在簡單模型上,時序一致性以及對嘴唇、眼睛的追蹤稍微降低。

這些成果最終則能夠通過以下方式,讓用戶在 YouTube、ARCore 以及其他客戶端體驗到更加逼真的自拍 AR 效果:

另外,我們還通過以下方式實現了逼真的妝容效果:

對應用到嘴唇上的鏡面反射進行建模;

利用亮度感知材料來實現面部著色。

案例對比: 5 個目標在不同光線下的真實化妝效果以及 AR 化妝效果

我們很高興將這項新技術分享給創作者、用戶以及開發者。感興趣的讀者可以通過下載最新的 ARCore SDK (下載地址:https://developers.googleblog.com/2019/02/new-ui-tools-and-richer-creative-canvas.html)來將這項技術用起來。未來,我們還計劃將這項技術廣泛應用到更多的谷歌產品線中。

via:https://ai.googleblog.com/2019/03/real-time-ar-self-expression-with.html 雷鋒網(公眾號:雷鋒網)

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 2020谷歌開發者大會:AR軟體工程總監介紹ARCore最新動態
    Google 開發者大會 (Google Developer Summit) 是谷歌面向開發者展示最新產品和平臺的年度盛會。2020 Google 開發者大會於 11 月 16 日 至 21 日舉行,這是谷歌首次以全線上大會的形式與中國開發者相聚。
  • 2020谷歌開發者大會:ARCore新增迅速放置API等功能
    2020谷歌開發者大會開啟,AR軟體工程總監王啟文發布ARCore最新動態 VR陀螺11月18日消息,Google 開發者大會 (Google Developer Summit) 是谷歌面向開發者展示最新產品和平臺的年度盛會。
  • 谷歌在美國推出 AR 化妝功能,通過 App 使用
    據外媒 slashgear 報導,谷歌手機 App 目前在美國地區推出了 AR 化妝功能,可以讓使用者模擬一些品牌化妝品的效果。目前這項功能支持歐萊雅、MAC 這兩個品牌,用戶搜索特定的受支持化妝品,就可以自動開啟功能,會有預設的不同靜態人臉可供選擇,用戶可以嘗試為人物頭像應用不同的化妝效果。
  • 2020 Google 開發者大會:多項 ARCore 更新帶來AR開發全新可能!
    基於 ARCore 技術,滴滴構建了一個實景導航解決方案,實時識別用戶和環境之間的定位關係,AR 實景導航引導信息逼真地和實景環境相結合,用戶只需要跟著 AR 路標走,直接跳過轉換 2D 地圖信息的步驟。在這個過程中,ARCore 的環境理解和運動跟蹤功能,確保手機始終識別用戶方位,給出正確的路標指導。
  • 2020 Google 開發者大會:多項 ARCore 更新帶來AR開發全新可能...
    基於 ARCore 技術,滴滴構建了一個實景導航解決方案,實時識別用戶和環境之間的定位關係,AR 實景導航引導信息逼真地和實景環境相結合,用戶只需要跟著 AR 路標走,直接跳過轉換 2D 地圖信息的步驟。在這個過程中,ARCore 的環境理解和運動跟蹤功能,確保手機始終識別用戶方位,給出正確的路標指導。
  • GUCCI APP引入腕錶AR技術
    Gucci App於去年率先引入AR (增強現實) 技術,可使用戶以虛擬方式對產品進行「雲試穿/試戴」。該技術最初應用於Ace運動鞋,如今也可用於Gucci腕錶。該項舉措見證了Gucci創作總監亞力山卓·米開理 (Alessandro Michele) 融合傳統與現代、復古與科技、真實與虛擬的超群能力。
  • 蘋果、谷歌、三星自拍相機大戰:誰更勝一籌?
    不過從製造商們花了更多精力來升級他們的自拍照相機來看,這並不是一個被放棄的領域。 此次我們將蘋果的iPhone 11、iPhone XR、三星Note 10、谷歌Pixel 3的自拍相機放在一起進行對比並進行打分(滿分10分),看看不同模式下,誰的拍照效果更有優勢。畢竟,你也不希望你的下一部新機會讓你看起來很糟糕。
  • 谷歌「升維打擊」:還原任意角度光照立體效果,2D變「4D」
    上面的結果,同樣是用幾張2D照片作為輸入,但有實時光影效果的生成結果,更加逼真生動,讓人有些「鬥轉星移」的錯覺。研究人員引入神經能見度場參數來彌補這一點,它允許有效查詢模擬光傳輸所需的光線和像素點之間的能見度。具體來說,NeRV網絡還原4D效果有3步,分別對應著3D場景生成、光影效果模擬、渲染。神經反射場NeRF並沒有將入射光線的效果與表面的材料屬性分開。
  • 谷歌在美國推出 AR 化妝功能
    據外媒 slashgear 報導,谷歌手機 App 目前在美國地區推出了 AR 化妝功能,可以讓使用者模擬一些品牌化妝品的效果。目前這項功能支持歐萊雅、MAC 這兩個品牌,用戶搜索特定的受支持化妝品,就可以自動開啟功能,會有預設的不同靜態人臉可供選擇,用戶可以嘗試為人物頭像應用不同的化妝效果。
  • Burberry與谷歌合作,通過谷歌搜索呈現AR體驗
    原標題:Burberry與谷歌合作,通過谷歌搜索呈現AR體驗(映維網2020年02月27日)由於新型冠狀病毒的影響,喬治·阿瑪尼早前取消了米蘭的現場表演,並轉而選擇線上直播的方式。類似的擔憂正在籠罩巴黎時裝周,而博柏利(Burberry)推出了允許你在家中欣賞這一時尚活動的增強現實工具。
  • GUCCI腕錶珠寶 | GUCCI APP引入腕錶AR技術
    GUCCI App於去年率先引入AR (增強現實) 技術可使用戶以虛擬方式對產品進行「雲試穿/試戴」該技術最初應用於Ace運動鞋如今也可用於GUCCI腕錶該項舉措見證了Gucci創作總監亞力山卓·米開理 (Alessandro Michele)融合傳統與現代、復古與科技
  • 谷歌推出AR Autos和可視搜索工具,讓用戶網購更便利
    該公司的圖像識別工具Google Lens使人們可以在谷歌應用或安卓的Chrome瀏覽器中點擊並按住圖像,以便在在線商店中找到它。對於服裝項目,搜索結果包括來自網站和社交媒體平臺(如Pinterest)的圖像中的樣式建議。該功能也將很快添加到iOS版本的谷歌應用中。 谷歌各種面向購物的功能以不同的方式對移動營銷人員產生了重要意義。
  • 谷歌搜索上線在線AR試裝體驗工具
    最近,松松編輯傑哥了解到,Google搜索聯合多家美妝公司推出「黑科技」,新增在線搜索AR試妝體驗工具,用戶可以在線虛擬體驗美妝產品上妝效果。
  • 蘋果ARKit和谷歌ARCore,憑什麼說他們不是55開?
    場景識別和光線評估(Scene Understanding & Lighting Estimation):無需額外設備,利用ARKit就可以讓iPhone和iPad通過相機視角對場景進行分析,識別空間中的水平面。ARKit可以檢測例如桌面和地面這類的水平面,並且支持放置和追蹤虛擬物品到更小的特徵點上。ARKit可以利用相機傳感器去評估環境光線,對應地調整虛擬物體地亮度。
  • 微軟做了一款自拍App,總覺得怪怪的……
    微軟自拍:輕量好用,然而也並沒有什麼創新咱自己先下了一個(此處開啟偽測評模式):如上如所示,開始畫面上有個小女孩頭像,點擊可更換頭飾,然而並沒有什麼實際功能╮(╯3╰)╭,棄之。還是玩下自拍吧,選擇拍照-自拍-加濾鏡-保存,然後,就沒有然後了……沒錯,這就是微軟自拍的全部功能。
  • 谷歌翻譯中的實時轉錄功能開始向所有Android用戶推廣
    原標題:谷歌翻譯中的實時轉錄功能開始向所有Android用戶推廣來源:cnBeta.COM 據外媒Neowin報導,谷歌於1月份首次在Android上推出了針對翻譯(Translate)應用的實時轉錄功能。
  • 谷歌Pixel 3系列相機詳解 拍照實力不容小覷
    今晨,谷歌正式發布了Pixel 3系列手機,與Pixel一貫的表現一樣,Pixel 3系列的相機也成了谷歌推廣的重點,實際上,Pixel系列的拍照實力也確實是安卓第一陣營,Pixel 2曾以98分的高分稱霸DXO榜單相當長一段時間。而Pixel 3的相機則更進一步,帶來了更多實用或有趣的更新。
  • 谷歌翻譯相機實時翻譯功能現增加至88種語言
    當你出國旅遊遇到不認識的菜單、路牌等時候,你只需要掏出手機打開谷歌翻譯然後用相機對準這些不認識的文本,它就會告訴你是什麼意思了。此前這項功能僅限於英語、漢語等部分語言之間的實時相互翻譯,不過谷歌現在宣布通過相機的實時翻譯功能可以支持100多種語言的輸出。
  • 谷歌翻譯App更新 實時相機翻譯加入日語與英文的即時互譯
    據外媒報導,谷歌最近發布了
  • 谷歌又放大招:視覺效果完勝其他SOTA的風格遷移網絡,手機端可達實時4K
    看標題也很明顯就知道,它是HDRNet的傳承者,是HDRNet類方法在風格遷移領域的成功應用(手機端4K實時風格遷移)。Abstract風格遷移指的是將圖像A的藝術風格遷移到圖像B的內容中,從而媲美相加拍攝的效果。近年來基於深度學習的方法取得了令人驚訝的效果,但存在速度過慢問題或偽影問題,這就導致了相應技術難以實際產品化落地。