2020-05-10 21:02 來源:澎湃新聞·澎湃號·湃客
關注前沿科技 量子位
郭一璞 發自 雲凹非寺
量子位 報導 | 公眾號 QbitAI
一隻3D的狗頭卡通角色:
給它畫上骨架:
誒?就可以動起來了:
同樣的方法,也可以讓3D小男孩動起來:
讓3D高挑大姐姐動起來:
讓3D貓貓活蹦亂跳:
總之,一切原本應該只是靜態的3D角色模型,不管是人是動物,還是自然界不存在的卡通創意角色,都能見皮知骨,由靜到動:
連影子都配合的非常好!
只知道脫骨雞、脫骨鴨掌,沒想到,還有人反著來。
這一切,都是一個叫做RigNet的AI自動完成的。只要設計好角色的3D動態外形,它就可以自動預測角色骨架,預估骨架外皮膚的重量,生成角色運動的圖像。
這可比人工製作動畫方便多了,要是能用在3D動畫或者3D遊戲製作上,以後就不用擔心拖更或跳票了呢。
這項研究也登上了SIGGRAPH 2020,作者來自麻薩諸塞大學阿默斯特分校和多倫多大學。
多網絡合作實現
AI讓3D角色動起來,需要經歷兩個步驟:先是確定骨骼的位置,再預測骨架之外皮膚的重量。
骨骼是有關節、會轉動的,因此AI預測的時候也要先找到那些關節。
先用一個GMEdgeNet圖神經網絡,預測頂點向相鄰關節的位移。
這樣,骨頭大概長在什麼地方就出來了。
同時,還準備了另一個GMEdgeNet,參數和前面的那個不太一樣,用它來預測網格上的注意力函數,圖上越紅的位置,注意力就越強。
劃重點,GMEdgeNet長這樣,後面還要用:
做了這樣的準備,就可以用聚類模型,找到關節的位置。
關節的分布和生物學意義上的脊椎動物並不完全一致,不過鑑於只是追求外在的運動效果,並不是做骷髏裝飾品,因此有大致的位置來表示身體彎曲的節點就OK了。
現在找到了關節,我們再把關節連起來,給它裝上骨頭。
裝骨頭用的是BoneNet模型和最小生成樹算法,BoneNet負責預測每兩個關節的連接裡,哪些連接才是正確的骨頭的位置,符合一般動物的身體結構。
BoneNet模型長這樣:
同時,還要給這個3D角色找到「根關節」,就是下圖的小紅點,可以理解為「重心」,需要用到RootNet模型。
這真是「刻骨銘心」啊。
好的,現在關節、骨架和重心都有了,需要讓這幅骨頭感知一下皮肉的重量,它才能運動得符合自然規律也符合人們的觀感。
給皮肉「稱重」的任務,還是GMEdgeNet模型來做,它來預測骨架蒙皮權重。
傳送門
項目主頁:
https://zhan-xu.github.io/rig-net/
論文地址:
https://people.cs.umass.edu/~zhanxu/papers/RigNet.pdf
GitHub:
https://github.com/zhan-xu/RigNet
— 完 —
5.13日晚8點,量子位·吃瓜社邀請了來自華為諾亞方舟實驗室的技術專家王雲鶴老師,直播分享端側AI的最新技術進展,歡迎大家報名圍觀~
識別下圖二維碼,添加小助手並備註「華為」,即可加入直播分享答疑群:
量子位·吃瓜社 | 華為諾亞大牛在線分享
_
量子位 QbitAI · 頭條號籤約作者
_
_
վ'ᴗ' ի 追蹤AI技術和產品新動態
_
喜歡就點「在看」吧 !
_
原標題:《只要做出角色3D模型,AI就能讓它動起來!再也不怕3D動畫拖更了丨SIGGRAPH 2020》
閱讀原文
關鍵詞 >> 湃客
特別聲明
本文為澎湃號作者或機構在澎湃新聞上傳並發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。