手勢交互新突破!ContactPose或助力未來XR無手柄?

2020-10-29 VR陀螺


手勢追蹤被視為人機互動(HCI)/人類數據交互(Human data interaction,HDI)中最直觀的交互模式之一,是混合現實(XR)終端交互的最新趨勢。

在XR領域中,手部運動軌跡的感知與追蹤是改善用戶在不同技術領域和平臺體驗的一個重要組成部分。手部追蹤技術在未來可以幫助用戶「解放雙手」,人機互動不再需要通過手柄控制,實現真正的解放雙手,讓用戶以最直觀的方式體驗在增強現實和物理世界之間的融合。



最近熱度不斷攀升的Oculus Quest 2一體機,在手勢追蹤識別功能上進行了一系列升級,除了早期的特定手勢操控主界面,最新解決方案甚至實現了基於手部追蹤的全文本輸入操作——即便如此,Oculus對於目前在手勢識別技術上取得的成就依然不是非常滿意。

Oculus曾表示,儘管手勢是一種有潛力的新型輸入方式,但由於計算機視覺與定位技術的局限,手勢識別技術的實際應用場景也受到限制。因此,Oculus一直在探索一些有用的技巧來幫助開發者適應手勢的局限性,甚至為了讓虛擬世界更具3D效果、更加智能地對手勢進行回應,Oculus已收購兩家虛擬實境手勢和3D技術的創業型公司 Nimble VR和13th Lab,以改善其一體機的手勢控制功能。


目前,由於涉及複雜的手指手掌結構和相關軟組織在運動時的變化,以及手和物體之間的接觸互動有著非常複雜的接觸點位和運動區域,強大的實時手部運動感知和追蹤已成為公認的一項極具挑戰性的計算機視覺任務,是科技研究領域中的大熱項目。


手部交互領域的一項新突破:ContactPose數據集

就在今年,美國三大理工學院之一的喬治亞理工學院,其機器學習中心更新了有關手部追蹤模型數據的新研究 -- ContactPose,一個手部抓握物體時觸點動態變化的數據集。

· ContactPose連結

https://contactpose.cc.gatech.edu/contactpose_explorer.html


ContactPose數據集通過機器學習(ML)和熱像儀捕獲記錄手部抓握不同物體時的每個3D關鍵觸點的變化,精準縮小手勢追蹤軌跡的總體性偏差。

ContactPose利用熱像儀將被抓握的受作用物體進行熱圖像紋理網格化,極大程度的減少外部設備幹擾,可以支持實現更加敏感精準的手勢交互追蹤,對於未來開發虛擬實境人機互動建模技術至關重要,該論文研究已被ECCV 2020 (2020年歐洲計算機視覺國際會議)收錄。

這篇文章中,VR陀螺將從覆蓋研究組、技術突破點和應用領域三大方面,為行業內感興趣的相關人士深度解析這項科研成果。


1. 研究組:基本覆蓋相關變化指數


ContactPose的論文研究中,設置的研究組變量覆蓋範圍很廣,這意味著ContactPose全面精準的包括了不同人群、不同物體、不同手部運動軌跡的數據集合。

總結其主要研究者Samarth Brahmbhatt等人的研究組數如下:

數據採集主體

參與實驗者共50人,抓握物品共25種

抓握動作的功能目標

1. 使用該物品

2. 移交該物品給他人

抓握次數

數據採集時,所有參與者共抓握物品2306次

RGB-D圖像

3個視點 + 296萬個RGB-D圖框

限制點

1. 只在空白背景下進行3D物體抓握

2. 只包括靜態抓握

ContactPose在採集手部追蹤數據時,邀請了50名實驗者參與對25種不同物品的抓握,包括望遠鏡、相機、手電筒、眼鏡、刀具、紅酒杯、牙膏等基本生活用品,通過抓握和移交主體物品的兩大手部運動意圖,共採集了2306組手部運動觸點數據,其研究的主體參量非常豐富,可以實現用戶生活中手部追蹤觸覺點的變化數據採集。


ContactPose數據集的呈現包括高解析度的觸點視圖、3D關節追蹤和多視圖RGB-D手部抓握動態視頻,並且區分左右手,左手為綠色,右手為紅色,通過明晰的顏色區分,能夠追蹤更複雜的雙手運動。

2. 研究突破點:防幹擾熱像儀可追蹤到手部具體3D關節

手部追蹤的人機互動領域作為亟需突破的領域之一,近年來有很多代表性的手勢交互技術更新。在手勢追蹤數據採集上,大部分研究都通過觸覺手套或其他設備捕捉手部運動數據,這意味著有的時候這些外部設備會影響手部運動的靈活性和主體自發性。

但喬治亞理工學院Samarth Brahmbhatt研究小組其最大突破為,用熱像儀把被抓握的受作用物體的表面紋理網格化,通過C相機記錄觀察手部抓握物體時每一幀RGB-D成像圖的變化,ContactPose不僅減少外部設備和環境限制的幹擾,更通過高幀密集觀察實現了敏感精準的手勢交互追蹤。

ContactPose利用機器學習的大原理來進行手勢運動感知,但因引入熱像儀追蹤技術,其可根據一幀圖像推斷出單手的21個3D立體關節點,支持高準確性的手勢和五指關節追蹤。換言之,其他很多手勢交互的研究是不能進行具體手指關節追蹤的,即只能體現整體手部運動但卻不知道是具體哪個手指尖先觸碰了物品。但ContactPose卻可以精準定位到具體手指部位、手部運動時的先後順序。



並且根據數據分析對比,ContactPose在資料庫規模、手部物體觸點追蹤、手勢和物體運動變化觸點等方面十分突出。

其實ContactPose並不是Samarth Brahmbhatt研究小組在這一領域的處女作,早在2019年,喬治亞理工學院發布了只包括觸點分布圖和RGB-D成像圖的ContactDB數據集研究。而相比之下,ContactPose是一次全面升級。




ContactDBContactPose觸點圖只有手部觸點分布圖3D關節追蹤RGB-D成像圖簡單、可轉動多視圖、高解析度追蹤功能手部整體成像可追蹤到具體手指、關節抓握數據採集可預測抓握方法適用於人機互動中的複雜抓握識別


通過交叉對比,ContactPose無疑是手勢交互數據的一次重要突破。不僅為日後的手部人機互動設備研發提供了數據基石,更通過數據的剖析揭示了手勢和主體事物接觸點的變化關係,為建立手勢運動觸點模型提供了體系結構算法參考。

ContactPose應用前景:

助力高精度級別手勢識別,或許可取代手柄操控

在2019年的第 6 屆Oculus Connect大會上,扎克伯格表示了進軍手勢交互領域的心,想要實現一個用戶不用拿著手柄、也沒有按鈕、沒有腕帶,甚至沒有其它傳感器的自由交互的虛擬實境沉浸世界。


目前,由於沒有高精度級別的手勢識別交互系統支持,手柄控制器長期以來就相當於用戶在虛擬世界中的雙手,無論是 Oculus 還是 HTC Vive 的 VR 頭盔,都需要藉助獨立的手柄控制器來實現手部運動追蹤。

但手柄控制器的存在卻一直局限著用戶在虛擬實境中的交互真實性。比如說當用戶要在遊戲中拿起一個物體,只能將手柄靠近並按鍵,這顯然破壞了虛擬世界沉浸交互的整體性,不夠真實。

然而,隨著更多的類似於ContactPose這種手勢數據規模化的支持,未來實現從真正的3D用戶界面,到虛擬對象操作,再到移動機制,以手部為中心的虛擬實境產品設計理念是存在可能的。手勢控制可以自由的取代語音或者手柄控制,亦是成為未來虛擬實境的大方向。

介於ContactPose在很大程度上可以為實現無接觸手勢運動追蹤和操控機器界面的技術提供了數據化支持,未來通過實時採集用戶手勢,將手勢的運動軌跡轉換為虛擬實境中的指令,可以實現自然、高效的人機互動,讓用戶完全的沉浸在一個新的可以自由運動的虛擬世界。


但通俗的談及到手勢交互應用的落地場景,現有的手勢交互技術與完全自然、高效的交互,仍然存在一定距離。

手勢交互應用的難點主要在於難以形成一致的手部操作方式,加上其屬於非精確性指令操作,其應用範圍會受交互設備、識別方法、用戶熟練程度等多個因素影響。由於不同用戶對不同產品使用手勢交互時,其手部運動軌跡也大相逕庭,所以用戶可能需要預先訓練一段時間去掌握相關設備或者系統,一定程度上是用戶要滿足機器的模版識別度。但ContactPose包括著不同人群抓握不同物體時的數據集,這意味著,日後隨著數據採集的規模化,機器可以開始輕鬆識別不同的手勢運動軌跡,從而實現機器識別的個性化、靈活性。

未來手勢交互將成為新一代「觸屏」

縱觀Oculus或者HoloLens這些行業領頭羊的設備,在用戶使用時,很多時候由於對手勢識別的不敏感或者錯誤偏差,使得用戶不得不依賴於手柄操作和語音控制來完成對虛擬實境設備界面的指令,手勢交互的人機操控方式在技術上顯然不夠成熟,尚且還處在行業早期階段。

但根據對ContactPose等相關數據集的研究分析,VR陀螺在此認為,隨著日後手部運動追蹤資料庫的大規模完善,手勢交互會像之前的觸屏手機一樣,成為新一代XR領域的主導人機互動方式,讓用戶無縫的在虛擬與現實世界中切換。

相關焦點

  • 手勢交互新突破!ContactPose或助力未來XR再無手柄?
    手部交互領域的一項新突破:ContactPose數據集就在今年,美國三大理工學院之一的喬治亞理工學院,其機器學習中心更新了有關手部追蹤模型數據的新研究 -- ContactPose,一個手部抓握物體時觸點動態變化的數據集。
  • 谷歌等巨頭布局手勢識別市場 未來或將取代觸控螢幕
    專家表示,這種技術目前在遊戲領域已經有一定的應用,但隨著技術的進步,未來體感技術還可以用在商場的服裝店,甚至用戶可以在網上隨意試穿自己喜歡的衣服。谷歌自定義手勢操控新專利曝光從谷歌專利描述來看,該技術可讓設備對用戶手勢進行直觀感知,除了簡單的推、拉、點觸等動作外,還能實現更多複雜的手勢操控。
  • 手勢交互方案、算法場景全解析
    1、模型驅動類算法此類算法通常是預先用手部 pose(pose 指位姿參數或節點位置,後文將統稱為 pose)生成一系列手的幾何模型,並建立一個搜索空間(所有可能的手勢幾何模型的集合),然後在搜索空間內找到與輸入深度圖最匹配的模型。此時,模型對應的參數就是所求的 pose。
  • 人機互動技術公司uSens 2018CES將展出多場景手勢及SLAM交互方案
    北京2017年12月29日電 /美通社/ -- 連續第三年參展CES的人機互動技術商uSens 2018年將展出多場景手勢及SLAM交互方案。基於核心計算機視覺及人工智慧算法優勢,uSens在移動端手勢及位置追蹤方面不斷上臺階,過往兩年分別展出的黑科技Demo,如今變成了落地案例,應用於AR VR、手機、車載等領域。
  • Facebook新研究:結合手勢識別技術,將任何物體變成AR/VR手柄
    近期,Facebook Reality Labs的科研人員公開了一項與AR/VR交互相關的新研究,研究中指出了一種可將周邊日常物品作為手柄的全新體感交互系統:Gripmarks。科研人員稱,該方案可用於AR或者VR,可增強使用者的沉浸感。
  • AR/VR專家告訴你:人機互動的未來場景長啥樣?
    實現沉浸感,需要有交互、顯示和移動性這三方面技術支撐,以下內容,我們將以交互技術為核心展開。在 AR/VR 領域中,交互不再用滑鼠和鍵盤,大部分交互技術均採用手柄。還有位置跟蹤技術,在一些高檔的 VR 設備中會提供,但成本較高,且需要連接電腦或主機來實現。未來,可能會採用用手直接抓取的方式,目前也有很多手勢交互方案提供商。
  • Oculus Quest將更新V13系統,默認手勢與手柄自動切換
    2月5日消息,Oculus Quest將於本周更新V13系統,除了提升手勢追蹤穩定性、更新手勢教學步驟外,還將對開啟手勢識別的頭顯默認開啟與手柄的自動切換。據悉,Quest從V12版開始提供beta版手勢識別測試,不過使用前需要用手柄手動選擇切換至手勢,使用起來比較麻煩。
  • YOCHU|德系豪車也用上了手勢交互?再不知道這項技術你就OUT了!
    未來,手勢交互的應用必定會更加廣泛引領時代潮流,創新科技未來手勢交互的原理是什麼?通過「三步走」原理實現手勢交互第一步,通過單目或多目光學系統進行超像素分析對空間的手勢、關節姿態、物體運動等進行精準識別第二步,基於圖像處理器和處理軟體搭載的圖像處理算法建立人體手勢動作模型
  • 開發專欄|Unity+SteamVR開發——交互
    儘管給出了諸多的交互案例,但是在實際開發中依然會有新的交互情況出現,在SteamVR2.6.1中沒有詳細的使用說明下,本文首先大概介紹其各種交互案例,然後詳細的介紹其交互的核心組件如Interactable和Hand等,最後結合我使用的案例實現如何動態添加各種交互。
  • 解鎖 VR 未來的秘鑰:Vive Wave開放平臺上的手勢識別技術
    鮑永哲給出的第三方硬體,包括6DOF手柄、眼球追蹤以及手勢識別。而在這之中,6DOF手柄和眼球追蹤都是 HTC Vive 頭顯的標配,對於首次引 入Vive 體系的手勢識別技術87君產生了好奇,並在第一時間採訪了鮑永哲 PPT 上的手勢識別合作夥伴——uSens凌感科技的商務副總裁陳佳敬。
  • Leap Motion發布手勢交互引擎beta版
    Leap Motion倡導的三維空間交互與VR可謂完美結合,再一次強勢出現在眾人的視線中。如何能夠實現更自然的手勢交互,也一直都是Leap Motion積極探索的方向。Leap Motion最初關於手勢追蹤設備的設想是將設備平放在桌上,探測用戶在上方的手勢並控制電腦。幾年後,Leap Motion表示他們將「100%專注於VR」,將主要的使用情況設定為頭戴手勢追蹤設備。
  • 2018網易未來科技峰會9月21日開啟 走進新交互世界
    峰會主題為「ALL IN時代」,將探討急劇變化的新時代,新科技為人們的生活與商業帶來的新變革。本屆峰會由「未來科技峰會+炫酷互動體驗區」兩部分構成。主論壇上午主題為「預見時代」,下午主題為「共識時代」。另外,為了讓現場嘉賓和觀眾體驗到最炫酷的未來科技產品,峰會組委會進行了兩個月的參展企業招募工作,通過層層選拔,最終確定了六家頗具未來感的炫酷體驗企業參展。
  • 把VR 控制器變成魔法棒,AirSig 讓玩家定義交互姿勢
    ,還有以 Leap Motion 和 uSens 為代表的手勢識別。今年年初,他們看到了 VR/AR 領域在人機互動上的新需求,認為這是新機會。AirSig 主要是基於手柄上的 IMU(慣性測量單元)來理解用戶的手勢,它包括兩大功能:3D 手勢識別開發者可以在應用/內容當中,直接使用 AirSig 內建手勢開發者可以自定義手勢,例如開發一個釣魚遊戲,開發者可以創建幾個釣魚動作,增加遊戲的互動性跟沉浸感 玩家可以自定義手勢,比如在魔法遊戲中
  • 新商業NEO100|凌感科技費越:自然手勢交互好比iphone的自然觸摸,正...
    「新的3D骨骼手勢,類似iphone的自然觸摸,現在就是它處於爆發的臨界點,Edge of Tomorrow(明日邊緣)」,費越對此無比確定。在費越的介紹中,自然手勢技術不但更加精準、穩定,還可以讓用戶隨心所欲地用最高效直覺的方式交互,從而能夠控制下一代汽車中先進的多媒體信息娛樂系統。
  • 結合眼球、手勢追蹤等方式,蘋果新專利展示AR/VR交互界面
    AR/VR的存在,顛覆了電腦、手機等2D平臺顯示內容的形式,其控制器也比傳統的鍵盤滑鼠更支持體感交互。那麼未來的AR/VR交互還將如何演變?今天,美國專利商標局發布的一項蘋果新專利就展示了一種結合眼球追蹤、語音助手、觸控、手勢和姿態識別等多種功能的頭顯控制方案。
  • OPPO未來科技大會落幕,這五大新交互方式有內味兒了
    為期兩天的OPPO未來科技大會2020算是暫告一段落了,不得不說,這一次OPPO的準備依舊是非常充分,不僅帶來了不少的概念產品,還展示了將應用在新機上的一些新技術系統,比如OPPO FDF全維人像視頻技術系統、OPPO全鏈路色彩管理系統等,可以說是在軟體和硬體方面,都給我們帶來了相當多的驚喜。
  • 超V對話 | XR交互技術瓶頸及未來發展路徑探討
    與此同時,PC VR頭顯開始了更具挑戰性的嘗試——一些廠商將追蹤範疇從頭和手擴展到腰和腳,也有廠商將手勢識別、面部捕捉以及眼球追蹤等技術視為下一代XR機型的發展目標。從2012年到現在,XR產業已經走過了8年的時間。這段時間裡,XR交互方式究竟是如何一步步變化的?未來,XR交互又將呈現怎樣的新形態?
  • 菲茨定律與未來交互方式
    進入今天交互閒談的主題,在很多展現未來科技的電影和美劇中,我其實有著重留意他們對於未來設備的交互方式。不同的導演為我們展現了各自心目中對於未來人機互動的遐想,有雙手多點交互,眼動追蹤交互,語音識別交互等等。 有心人不禁會問,人機互動方式的發展到底是否有所據可依?
  • 歡迎來到5G XR 時代未來城市:XRSPACE今日正式亮相!
    從外型來看,XRSPACE MANOVA VR一體機設計輕巧便攜,無線纜束縛,能實現隨時隨地暢玩;從配置來看,其內置高通驍龍845移動平臺為性能做支撐,頭顯搭配深度攝像頭支持6DoF空間定位及手勢識別,同時可搭配6DoF手柄使用,兼顧多種交互方式;內存6GB;單眼解析度1440*1440,DPI為702,刷新頻率90Hz,呈現出更清晰絲滑的視覺效果。
  • 或是魅族16上的新交互 魅藍E3手勢導航體驗
    [來自IT168]【IT168 評測】Flyme在7月12日正式發布了魅族E3的最新體驗系統,這次的更新帶來針對全面屏幕的手勢導航操作,這也是魅族手機上首次實現手勢導航的功能。縱觀目前全面屏手機大部分都有採用手勢導航,但每一家都有他們不同的操作方法,使用體驗也各不相同。