魚羊 發自 凹非寺
量子位 報導 | 公眾號 QbitAI
手動對人體進行3D建模並非易事。
但現在,只給AI一張高清照片,它還真就能分分鐘搞定這件事。
甚至還挺高清,衣服褶皺、面部表情,細節一點不少。
這項新研究來自南加州大學和Facebook,中選CVPR 2020。
並且已經在GitHub上開源,標星3.6k,還在一天內就漲了207顆星,登上GitHub熱榜。
一起來看看,這究竟是如何實現的。
這隻AI名叫PIFuHD,其基礎框架是ICCV 2019上已經登場的像素對齊隱式函數PIFu。不過,PIFu以解析度為512×512的圖像作為輸入,輸出的3D模型解析度不高。
為了得到高解析度的輸出,在這項研究中,研究人員在PIFu的基礎之上,額外疊加了一個像素對齊的預測模塊。
如圖所示,頂部粗層次像素對齊預測器捕捉全局的3D結構。高解析度的細節則由下面的Fine模塊添加。
具體而言,fine模塊將1024×1024的圖像作為輸入,並將其編碼成高解析度的圖像特徵(512×512)。
此後,高解析度特徵嵌入和第一個模塊中得到的3D嵌入被結合起來,用以預測佔位概率場。
為了進一步提高重建的質量和保真度,該方法還會在圖像空間中預測正反兩面的法線圖,並將其作為額外的輸入反饋給網絡。
所以,跟前輩們相比,PIFuHD究竟進步了多少?
研究人員在People Snapshot dataset數據集上將其與此前的SOTA方法進行了定性比較。
可以明顯看出,由於PIFuHD充分利用了基礎形狀和精細形狀,能夠直接在像素級別上預測3D幾何形狀,它對輸入圖像的細節把握更加精準,重建出來的3D人體模型解析度更高。
論文代碼已經開源,並且,研究團隊還在Colab上提供了在線試玩。
輸入一張你自己的照片,幾分鐘之內就能收穫一個數字3D的你。
真·3D建模師福音。
結合可以讓3D模型動起來的Mixamo食用,網友們都玩嗨了。
趕快上手玩起來吧~
最後,附上作者簡介。
論文一作齋藤俊輔(Shunsuke Saito),目前在Facebook Reality Labs擔任研究科學家,致力於深度人類數位化的有效數據表徵研究。
他在南加州大學工作期間,曾與計算機圖形學領域知名華人教授黎顥合作。
GitHub地址:
https://github.com/facebookresearch/pifuhd
Demo地址:
https://colab.research.google.com/drive/11z58bl3meSzo6kFqkahMa35G5jmh2Wgt?usp=sharing#scrollTo=afwL_-ROCmDf
— 完 —
量子位 QbitAI · 頭條號籤約
關注我們,第一時間獲知前沿科技動態