操縱加魯魯獸的機會來了,SIGGRAPH論文提出RigNet幫動畫師做骨架綁定

2020-12-14 澎湃新聞

機器之心

選自arXiv

作者:ZHAN XU等

機器之心編譯

參與:魔王

這篇SIGGRAPH 2020 論文提出基於輸入角色模型生成動畫骨架綁定結果的端到端自動化方法 RigNet,這或許能幫助加速動畫製作流程。

在動畫製作中,骨架綁定(Rigging)與動畫密切相關。

什麼是動畫骨架綁定呢?基於 3D 蒙皮創建骨骼。動畫模型中的關節就像現實中人的關節一樣,兩個關節組成一段骨骼,幾段骨骼組成一個骨架。綁定就是把模型綁定到骨骼上邊,通過骨骼來控制模型的運動。

如下圖所示,綠色球即為關節,藍色線段為骨骼,多個骨骼構成了骨架。

給定 3D 角色蒙皮,RigNet 生成動畫骨骼和蒙皮權重。

Rigging 本身是一項專門技術,骨架綁定結果的好壞對動畫的質量有很大影響。那麼,有沒有什麼辦法可以簡化該過程呢?

最近,來自麻薩諸塞大學阿默斯特分校和多倫多大學的研究者提出了一種基於輸入角色模型生成動畫骨架綁定結果的端到端自動化方法 RigNet,並以其優秀效果在 reddit 上引發大量關注。

我們先來看 RigNet 的效果:

圖中角色動作敏捷,關節活動自然,左搖右晃時身體協調性也不錯。

走路、蹦跳、前躍、跳舞、飛翔,這些角色的動作都很自然。

以及找亮點!有沒有發現加魯魯獸?

reddit 網友紛紛表示「效果很好,求代碼」。

論文連結:https://arxiv.org/abs/2005.00559

項目頁面:https://zhan-xu.github.io/rig-net/

代碼(暫未發布):https://github.com/zhan-xu/RigNet

了解了效果,接下來我們來看看 RigNet 是如何做到的。

給出表示某個鉸接式角色的 3D 模型作為輸入,RigNet 能夠預測角色的骨架,且骨架的關節位置和拓撲結構與動畫師的預期相匹配。此外,RigNet 還可以基於預測的骨架估計蒙皮權重。

該方法基於深度架構構建而成,此架構可以直接在蒙皮(mesh)表徵上運行,無需對形狀類別和結構進行假設。該架構的訓練數據包含大量不同的骨架綁定模型,及其蒙皮、骨架和對應的蒙皮權重。

端到端自動動畫骨架綁定方法:RigNet

給定某個角色的 3D 蒙皮作為輸入,RigNet 可以基於其底層關節結構和幾何來預測動畫骨架和蒙皮。動畫師可對骨架和蒙皮權重進行編輯,以便通過標準建模和動畫製作流程進行細化。

RigNet 的整體架構如下圖 4 所示,它可以直接在蒙皮表徵上運行,在訓練或測試過程中無需事先了解角色的類別、部件結構或骨骼關節類別。該方法唯一需要的假設是,輸入訓練和測試形狀需要具備一致的方向:直立、面朝前方。

圖 4:(上)RigNet 流程概覽。(下)GMEdgeNet 架構及其圖卷積層(GMEdgeConv)。

上圖展示了 RigNet 方法的流程:

給定一個輸入 3D 模型,使用圖神經網絡 GMEdgeNet 預測頂點相對相鄰關節發生的變化;

使用另一個具備分離參數的 GMEdgeNet 網絡,預測蒙皮的注意力函數,這有助於找出與關節預測更為相關的區域(紅色越重表示注意力越強,替換後的頂點也會根據注意力著色);

受蒙皮注意力的驅動,聚類模塊檢測出所有關節,即圖中綠色球;

現在關節已經檢測出來了,使用神經模塊 BoneNet 來預測每對關節的相連概率;

使用另一個模塊 RootNet 提取根關節(root joint);

最小生成樹(MST)算法利用 BoneNet 和 RootNet,構建動畫骨架;

最後,GMEdgeNet 模塊基於預測到的骨架生成蒙皮權重。

骨骼關節預測

該架構的第一個模塊用於預測關節位置,可用於後續的動畫骨架生成。它學習替換候選關節位置的蒙皮幾何(圖 4a)。該模塊基於圖神經網絡構建,從蒙皮中提取拓撲和幾何特徵,以學習這些替換。

在這一階段,該架構的主要思路是:學習輸入蒙皮的權重函數,用於找出與關節位置更相關的區域(圖 4b)。實驗表明,這帶來了更加精確的骨架。替換後的蒙皮幾何能夠圍繞候選關節位置形成集簇。

研究者提出一種可微聚類機制,利用神經蒙皮注意力來提取關節位置(圖 4c)。

骨骼連接預測

該架構的第二個模塊學習哪些關節對應該與骨骼相連。

該模塊以之前步驟中得到的預測關節作為輸入,包括學得的形狀和骨骼表徵,然後輸出每個關節對是否與骨骼相連的概率(圖 4d)。

研究者發現,學得的關節和形狀表徵對於骨骼估計很重要,因為骨骼連接不僅依賴關節位置,還依賴整體的形狀和骨骼幾何。

接下來,將得到的骨骼概率作為最小生成樹的輸入,即使用概率最高的骨骼構建樹結構骨架。該步驟從另一個神經模塊得到的根關節開始(圖 4e)。

該階段所使用模塊 BoneNet 的架構。

蒙皮預測

給定預測到的骨架(圖 4f),該架構中的最後一個模塊為每個蒙皮頂點生成權重向量,用以表示不同骨骼對頂點的影響程度(圖 4g)。雖然該研究提出的方法受到 NeuroSkinning 的啟發,但在架構、骨骼和形狀表徵、從頂點到骨骼的體積測地距離使用方面都有重要差別。

訓練和泛化

該架構使用了多個損失函數進行訓練,這些損失函數用來衡量關節位置偏移、骨骼連接和蒙皮權重差異。

訓練輸入角色不管從結構、數量還是移動部分的幾何來看都具備極大的多樣性,如人形物、二足動物、四足動物、魚、玩具、虛構角色等。同樣地,測試集也具備類似的多樣性。

研究者觀察到,該方法能夠泛化到具備不同數量關節部位的角色中。

圖 10:該方法基於測試模型得到的不同結構和形態的骨骼。

效果怎麼樣

研究者對他們提出的方法與其他用於動畫骨架和蒙皮預測的方法進行了定量和定性評估。下表 1 展示了不同方法之間骨架提取的評估度量。本研究提出的方法在所有度量上均優於其他方法。

表 1:與其他骨架預測方法的比較。

圖 8:與其他骨架提取方法的效果對比圖。

下表 2 展示了蒙皮的評估度量。結果顯示,該研究提出的方法在所有度量上均優於 BBW、GeoVoxel 和 NeuroSkinning 方法。

表2:與其他蒙皮預測方法的比較。

圖 9:與其他蒙皮預測方法的效果對比圖。

作者簡介

該研究的作者為 ZHAN XU、YANG ZHOU、EVANGELOS KALOGERAKIS、CHRIS LANDRETH 和 KARAN SINGH,來自麻薩諸塞大學阿默斯特分校和多倫多大學。

其中第一作者 ZHAN XU 是麻薩諸塞大學阿默斯特分校的博士在讀學生,導師為 Evangelos Kalogerakis。研究方向為視覺計算,計算機圖形學、計算機視覺和機器學習的交叉領域。

第二作者 Yang Zhou 本科畢業於上海交大,導師為林巍嶢教授。現在麻薩諸塞大學阿默斯特分校讀博,導師為 Evangelos Kalogerakis。其研究方向為計算機圖形學和機器學習,研究興趣是:利用深度學習技術幫助藝術家、動畫師做出更好的設計。

前不久他和 Adobe、虎牙的研究人員合作提出了一種使單張照片張嘴說話的新方法 MakeItTalk,該方法不僅能讓真人頭像說話,還可以讓卡通、油畫、素描、日漫中的人像說話(參見論文《MakeItTalk: Speaker-Aware Talking Head Animation》)。

本文為機器之心編譯,轉載請聯繫本公眾號獲得授權。

✄------------------------------------------------

加入機器之心(全職記者 / 實習生):hr@jiqizhixin.com

投稿或尋求報導:content@jiqizhixin.com

廣告 & 商務合作:bd@jiqizhixin.com

原標題:《操縱加魯魯獸的機會來了,SIGGRAPH論文提出RigNet幫動畫師做骨架綁定》

閱讀原文

相關焦點

  • 操縱加魯魯獸的機會:SIGGRAPH論文提出RigNet幫動畫師做骨架綁定
    選自arXiv作者:ZHAN XU等機器之心編譯參與:魔王這篇SIGGRAPH 2020 論文提出基於輸入角色模型生成動畫骨架綁定結果的端到端自動化方法在動畫製作中,骨架綁定(Rigging)與動畫密切相關。什麼是動畫骨架綁定呢?基於 3D 蒙皮創建骨骼。動畫模型中的關節就像現實中人的關節一樣,兩個關節組成一段骨骼,幾段骨骼組成一個骨架。綁定就是把模型綁定到骨骼上邊,通過骨骼來控制模型的運動。
  • 真·降維打擊SIGGRAPH 2020論文幫你想像三維生物眼裡的四維空間
    一篇 SIGGRAPH 2020 論文幫我們 「想像」 出了這個過程,看完論文,你還可以上手試試遊戲。四維空間是什麼?三個空間維度加一個時間維度?不,那是四維時空,跟四維空間是兩個不同的概念。四維空間的第四個維度也是空間維度,和我們熟知的 x、y、z 屬於同一性質。
  • SIGGRAPH 2020 AR/VR論文匯總
    N-dimensional rigid body dynamics 我提出了一個與空間維度無關的剛體動力學公式。我用幾何代數來描述剛體的狀態和運動方程。使用擴展到nD的碰撞檢測算法,我解析了對象之間的碰撞和接觸問題。我的實現是4D,但這裡描述的技術適用於任何數量的維度。我用一個三維切片來展示這些四維剛體。我允許用戶實時操縱這些剛體。
  • 太極二作李子懋獲SIGGRAPH最佳博士論文獎,華人連續三年獲此殊榮
    其次,論文的另一項貢獻是提出了一個領域特定的自動微分編譯器,它基於 Halide 程式語言構建,用於微分圖像處理算法。該編譯器只需研究人員付出很少的編程努力,即可以高性能自動生成複雜圖像處理算法的梯度。這就為使用靈活構造塊開發高效準確的數據驅動圖像處理算法開闢了新的路徑,與深度學習中常用的粗粒度算子形成鮮明對比。
  • SIGGRAPH Asia 2020 電腦動畫節獲獎短片,你最喜歡哪一部?
    此次評選,共收到了577個CG動畫項目,通過51名初選評2委的評審,初選出139個作品,再由行業頂尖的專業人士組成國際評審團評選出3個CAF獲獎作品,同時為CAF電子劇場以及動畫劇場分別評選出22個最佳作品。
  • 藏不住了,我們喜歡的插畫師幫竇靖童做了動畫MV
    -《GSG》誰曾想,Alex去年還口口聲聲說「學動畫太難了」,今年就給竇靖童的新歌《GSG》做了MV。我們一開始認識Alex Gamsu Jenkins,是因為他的插畫經常出現在《紐約時報》、Adult Swim、VICE、Netflix、BBC、Adobe等等等等。
  • 陰陽師人偶操縱在哪比較多 神秘妖怪人偶操縱攻略
    陰陽師人偶操縱在哪裡,陰陽師神秘妖怪人偶操縱攻略,小編今天給大家講解的神秘妖怪的線索答案內容,帶你了解神秘妖怪的真面目與擊殺地點!為大家介紹在陰陽師的懸賞封印任務中神秘妖怪在哪打。陰陽師封印活動人偶操縱的妖怪在哪打?陰陽師懸賞封印神秘妖怪人偶操縱指的是什麼?線索人偶操縱的妖怪在哪打?
  • 《陰陽師》傀儡師哪裡比較多 人偶、操縱是什麼
    導 讀 陰陽師人偶、操縱是什麼?傀儡師在哪?傀儡師在哪比較多?一起跟著九遊小編來看看吧。
  • 細數動畫《抓鬼天狗幫》中主角色的配音師
    細數動畫《抓鬼天狗幫》中主角色的配音師電視動畫《抓鬼天狗幫》是一部由日本漫畫家木下櫻與東山和子所合作的日本漫畫改編漫畫而成。人物性格各異,下面我們來看看主要人物的配音師吧。宮田幸季一之宮勘太郎的配音師宮田幸季,日本男性聲優,隸屬於81 PRODUCE事務所。舊名為宮田始典,於1999年進入現屬事務所後改名。主要代表作品及角色有《抓鬼天狗幫》一之宮勘太郎、《死神》山田花太郎、《神幻拍檔》拉普拉多魯等。櫻井孝宏春 華(春華)的配音師櫻井孝宏,生於日本愛知縣。日本男聲優。
  • 加魯魯獸的競爭對手們,誰才是最強的猛獸呢
    是在極寒之地生長的野獸,擁有發達的肌肉和野性十足的鬥爭本能,能用迅雷不及掩耳之勢獵殺目標,除了野性外「加魯魯獸」的智力卻出乎意料的高,而且還對主人忠心耿耿,生長在極寒之地的「加魯魯獸」也有大量的競爭對手,有的相互競爭相互尊重,有的互為表裡,讓我們看看都有哪些數碼獸。首先是森林中的魔獸「獠牙獸」,又名「餓狼獸」。
  • 怎麼製作3D動畫?全面使用說明
    現在在很多時候都能看到3DCG技術,就像現在電視上播的那些動畫。雖然這種技術現在已經非常常見了,但普通人對於它的製作手法其實還是不太清楚。因此,我們本次對基本動畫製作方法的對象和紋理、角色活動進行解說。3DCG動畫的製作過程是什麼?
  • 如果寧靜不做演員,還繼續做動畫師會怎麼樣?
    聽說,寧靜在成名前是一名動畫師。據說是在貴州學習的,在廣州工作的,動畫師是她第一份工作。按照寧靜在乘風破浪裡面的表現,感覺她的性格就是不會做那種按部就班的螺絲釘。如果,寧靜不做演員,一直做動畫師的話會怎樣?
  • Moho教程來了,動畫角色製作流程是這樣的~
    Moho是一個角色動畫方面的高手,極為專業的「骨骼」功能,為我們製作複雜人物動畫提供了很大幫助。下面我們就來看看使用Moho輕鬆製作複雜角色動畫的流程吧!下面,可以在骨骼層上創建一個骨架出來了,這裡對於動畫初學者來說是個難點,有3D人物動畫經驗的朋友可能上手比較快一些。創建骨架1、創建「脊椎」,它是這個骨架的軸心,其它的部件都將連接在上面,然後是「頭部」,安放在脊椎頂端,這樣才可以活動自如。2、創建胳膊和手臂,不過,要注意骨骼的連接位置要準確一點,應該都在人物的關節部位。
  • 數碼寶貝:加魯魯獸進化路線鑑賞,完全體超帥,究極體又趴下了
    前言今天來聊聊加魯魯獸的進化鏈。其實從《數碼寶貝》系列動畫開始,犬類的加魯魯系基本上就是佔據了男二號的位置,特別是在《數碼寶貝大冒險01》跟《數碼寶貝無限地帶》中,更是貢獻了完整的加魯魯係數碼獸進化鏈,今天就先來聊一下加魯魯獸,以後要是有機會的話,再聊聊古代加魯魯獸。
  • 皮克斯動畫特效太好,但特效師容易「手抖」,還好Python來幫忙
    但視覺效果電影與動畫電影略有不同,因為你以分鏡的形式額外添加電影鏡頭元素。如果你覺得圖標不夠直觀,那這部《料理鼠王》的後期製作過程就能幫你get到,注意看右下角的標註:在各個環節中,Python可以說是給後期人員提供了大大的便利。
  • 《陰陽師》人偶操縱在哪刷 懸賞封印傀儡師哪裡多
    導 讀 陰陽師人偶操縱在哪刷 懸賞封印傀儡師哪裡多?下面九遊小編就給大家帶來這篇攻略,大家一起來看看吧。
  • 論文筆記:第一人稱視角視頻中的行人軌跡預測
    前幾天日本東京大學在arXiv上放出的一篇論文(大概是CVPR投稿文章吧)提出了一個新的人體動作分析問題:第一人稱視頻中的行人軌跡預測問題,並提出了一個新的數據集以及一個新的行人軌跡預測算法。論文的題目為:Future Person Localization in First-Person Videos [1] (arXiv 1711.11217)。
  • 獨家專訪前迪士尼資深動畫師、現太崆動漫創始人張少甫
    索尼影視動畫成員在卡爾弗城校園合影導演會給你完整地畫出一個非常誇張的 Pose,你必須去接近他的 Pose,但綁定有局限性,所以我們只好把一個角色的綁定完全拆分,因為沒有別的辦法來實現這個關鍵 Pose。
  • 哪款軟體做3d角色動畫,比較好用?
    廢話了那麼多,那麼哪個軟體製作角色動畫比較好呢?第一反應,肯定是maya,再到max,再到c4d,最後是blender。maya角色動畫早就佔據了整個市場,做複雜的角色動畫基本就是maya了。那麼其他軟體就不行了嗎?
  • 2020最佳博士論文;南開等提出新型自校準卷積
    他們提出了一個新模型 LightGCN,其中僅使用 GCN 中的最基本組件鄰域聚合(neighborhood aggregation)來進行協同過濾。具體來說,LightGCN 通過在用戶 - 物品(user-item)交互圖上線性地傳播用戶和物品嵌入,進而學習它們,並將所有層上學得的嵌入加權和用作最終嵌入(final embedding)。