如何在虛擬世界靈活運用你的雙手?手勢交互方案、算法場景全解析

2021-01-04 雷鋒網

早在語言出現之前,人類就習慣使用肢體和手勢,這種近乎本能的溝通方式,來互相交流。

在機器被發明之後,手勢因具備鍵盤、滑鼠、觸屏等交互方式所無法替代的天然優勢,仍然有諸多應用場景。

在電影《鋼鐵俠》裡面,主角一揮手,憑空推拉拖拽操控虛擬物體,簡直不要太炫酷了。

做到像電影中那樣高精度、穩定性好的手勢識別,需要硬體和算法的加持,兩者缺一不可。

手勢識別都有哪些常見的硬體方案?工程師是如何用 AI 算法來優化識別效果的?常見的手勢識別應用場景都有哪些?接下來,就讓 Rokid R-Lab 算法工程師張兆輝為我們娓娓道來。

手勢識別的三大硬體方案

手勢識別的原理並不複雜,它通過硬體捕獲自然信號,就像相機捕獲圖片信息那樣,然後通過軟體算法計算得到手的位置、姿態、手勢等,處理成計算機可以理解的信息。

目前手勢識別主要有以下 3 種硬體方案:

1、攝像頭方案

常見的又分彩色攝像頭方案和深度攝像頭方案。

1.1 彩色攝像頭方案

彩色攝像頭方案只需要一個普通攝像頭,捕捉拍攝一張彩色圖片,通過 AI 算法得到圖片中手的位置、姿態、手勢等信息。優勢是設備成本低、數據容易獲取。

目前這種基於單目 RGB 的手勢識別在學術界和工業界研究的比較多,商用的方案商有英梅吉、ManoMotion、虹軟等。

還有一些人工智慧開放平臺同樣提供這種方案。比如騰訊 AI 開放平臺提供靜態手勢識別和手部關鍵點,百度 AI 開放平臺和 Face++ 提供靜態手勢檢測。以及一些開源項目比如 openpose 和 Google Mediapipe 等。

openpose的手勢關鍵點檢測

相比深度攝像頭方案,彩色攝像頭方案缺乏深度信息,受光照影響非常大,夜間無法使用,穩定性和精度都沒有深度相機方案好。

1.2 深度攝像頭方案

這個方案是通過深度攝像頭來獲取帶有深度信息的圖片。優勢是更容易獲取手部的 3D 信息,相對應的通過 AI 算法得到的手部 3D 關鍵點也更加準確和穩定。但缺點是需要額外的設備、硬體成本比較高。

深度相機又分三大類:ToF、結構光和雙目成像。

其中,ToF 和結構光得到的深度圖比較準,但成本比較高,多用於手勢的科研領域,商用的比較少,比如微軟 HoloLens、極魚科技 ThisVR。

雙目成像因為視場角大,幀率高,很適合用來做手勢識別,唯一缺點就是因為成像原理的限制,使得整個雙目相機模組的體積對比 ToF 和結構光來說大很多。

採用雙目成像的公司以目前最大的手勢識別公司 Leap Motion 為代表,該公司使用的是主動雙目成像方案,除了雙目攝像頭外還有三個補光單元,可捕獲雙手 26DoF、靜態手勢、動態手勢等。此外,Leap Motion 還提供了非常完整的 SDK,對各個平臺支持都不錯(除手機平臺)。

Leap Motion的演示

國內也有在做雙目手勢的公司,比如 uSens Fingo 是基於主動雙目的視覺方案, 提供雙手 26DoF、靜態手勢、動態手勢識別等功能。相比於 Leap Motion,uSens 更專注於對手機以及其他低功耗嵌入式設備的支持。此外還有微動 Vidoo Primary 也有基於雙目的手勢解決方案。

2、毫米波雷達

毫米波雷達方案的代表有谷歌推出的一款特殊設計的雷達傳感器—— Project Soli ,它可以追蹤亞毫米精準度的高速運動,但目前尚處在實驗室階段。

從其公布的演示來看,目前可以識別個別指定的手勢,並在小範圍內識別微小精確的手勢操作,很適合發揮人類精準的小肌肉運動技能(fine motor skills)。但缺點是有效範圍太小,無法得到手的所有自由度。

Project Soli的演示

3、數據手套

數據手套是指在手上帶一個內置傳感器的特製手套,通過傳感器檢測手指的屈伸角度或位置,再根據 Inverse kinematics(逆運動學)來計算出手的位置。

一般用到的傳感器有彎曲傳感器、角度傳感器、磁力傳感器等。

彎曲傳感器和角度傳感器類似都是可檢測手指的彎曲程度,我們以 DEXMO 力反饋手套為例,該手套使用旋轉傳感器捕捉 11 個自由度的手部運動,包括每根手指的伸展和彎曲,以及大拇指一個額外的旋轉自由度。

此方案對手的局部動作檢測很準,而且不受視覺方案中視野範圍的限制。但缺點是手上必須戴手套不方便,且只能檢測局部的手指動作,不能定位手部整體的位置角度。若想要檢測手的位置角度, DEXMO 需配合其他 6 自由度追蹤器使用。

當然 DEXMO 的最大賣點其實不是手勢識別,而是逼真的觸覺反饋(haptics)+手勢識別。手勢識別+觸覺反饋的方案肯定會是以後人機互動的重要一環。最近收購 Leap Motion 的 UltraHaptics 就是一家做觸覺反饋的公司。

還有一種用磁力傳感器的——trakSTAR 電磁式空間位置追蹤系統。通過在手上貼的磁力傳感器的磁場變化,來確定傳感器的位置角度,再根據反運動學確定手的具體位置。

trakSTAR使用示意圖

此方案需在手部貼 6 個磁力傳感器(5個指尖+1個手背),並在面前放一個磁力發射器。磁力發射器會在一定範圍內形成一個特殊的電磁場,然後根據傳感器在電磁場中不同位置角度檢測到的電磁場強度的不同,來推斷出指尖及手掌的位置角度。再通過反運動學,確定所有手部關節點的位置。

此方案的缺點是有效使用範圍太小,價格太貴,適用場景太少。優點是精度很高,穩定性很好,並且可獲得手部所有自由度。

目前此方案還只有純科研在用,最近幾個學術界公開的手勢數據集 FHAB、 BigHand 都是用此設備採集的。

FHAB 數據集中的示意圖

手勢識別的兩類算法模型

通過以上科普,相信大家對手勢識別的硬體方案有了初步的了解。但要想做好手勢交互,僅硬體方案是不夠的,還需要專業算法的支持。

當我們通過攝像頭得到深度圖後,下一步就是把深度圖輸入給算法,算法可以輸出我們手部所有關鍵點的 3D 位置。

手部關鍵點也可以理解為手部骨架的關節點,通常用 21 個 3D 關鍵點來描述。每個 3D 關鍵點有 3 個自由度,那麼輸出維度就是 21*3。所以我們常常用一個 21*3 維的矢量來描述,如下圖:

可視化後的21個手部3D關鍵點

目前學術界已經提出各種算法用於解決「基於深度的手勢姿態估計問題「,這些算法大體可以分成模型驅動(model-driven)和數據驅動(data-driven)兩種方式。

1、模型驅動類算法

此類算法通常是預先用手部 pose(pose 指位姿參數或節點位置,後文將統稱為 pose)生成一系列手的幾何模型,並建立一個搜索空間(所有可能的手勢幾何模型的集合),然後在搜索空間內找到與輸入深度圖最匹配的模型。

此時,模型對應的參數就是所求的 pose。此類算法屬於生成式方法(Generative Approaches),我們以下圖中的論文為例:

模型驅動類算法通常需要設計一種方式把 pose 轉換成對應的幾何模型。

此論文用了 linear blend skinning(一種骨骼蒙皮動畫算法):意思就是給骨架蒙上一層皮膚,並讓皮膚跟隨骨骼運動一起變化,多用於動畫領域。

先把 pose 轉換成對應的 mesh(下圖左側),在進一步轉換成光滑曲面模型(下圖右側)。我們可以理解為 pose 是自變量,幾何模型可由 pose 算出,且幾何模型與 pose 一一對應。

請點擊輸入手部幾何模型圖片描述

輸入的手部深度圖可轉化為點雲, 此點雲就相當於在真實的手表面上採集到的一些 3D 點,如下圖中的紅點和藍點:

這樣就可以定義損失函數為點雲中的點到模型表面的距離(上圖中的紅線),以此描述深度圖和pose的相似度。損失函數的輸入是深度圖和 pose,輸出是差異度。損失函數的輸出值越小,說明輸入的深度圖和pose越相似。

因此,只要在搜索空間中找到令損失函數最小的 pose 即為所求的pose。但因搜索空間不能寫成解析形式,沒法一次性求出損失函數的最小值,通常只能用數值計算方法,如PSO,ICP等,不斷迭代計算得到最優解。

上圖從左到右展示了迭代初期到迭代結束時的 pose,這種迭代的數值解法通常對初始化要求較高,若初始化的不好,則需要很長時間才能迭代收斂,還有可能無法收斂到全局最小值(因為損失函數是非凸函數),所以算法實現時,通常利用上一幀的pose來初始化當前幀的計算。

這種模型驅動類方法需要手工設計幾何模型和損失函數。簡單的幾何模型計算量小,複雜的幾何模型準確度高。通常設計模型時需要在準確度和性能之間做權衡。

不同的手部幾何模型

模型驅動類的算法優勢是不需要任何訓練數據,只要設計的好,寫完就可以直接用。 缺點是需要手工設計模型,計算量較大,容易誤差累計導致漂移,對初始化要求高,通常只能用在手勢追蹤領域。

2、數據驅動類算法

此類算法是指利用收集數據中訓練樣本與其對應的標籤關係,讓機器學習一個從樣本到標籤的映射。 此類算法屬於判別式方法(Discriminative Approaches)。

這樣的機器學習算法有很多,可以是早期使用的隨機森林,SVM 或是最近研究的火熱的神經網絡等。此類方法的優點是不需要設計複雜的模型,缺點是需要大數據。但現在大數據時代數據量已經不是問題,這種數據驅動的方式已經成為目前的主流研究方向。

早期學術界研究手勢關鍵點回歸的經典方法有 Cascade regression, Latent Regression Forest 等。近些年研究主要集中在各類神經網絡如:DeepPrior 系列、REN、pose guided、3D-CNN、Multi-View CNNs、HandPointNet、Feedback Loop 等。

由於此處討論的用於手勢的神經網絡與普通的圖的神經網絡並無本質差異,而神經網絡的科普文章已經很多,這裡就不做科普了,我們僅挑幾個有代表性的網絡結構介紹一下:

DeepPrior:網絡結構大體如下圖,通過初始網絡得到粗略的 pose,再用 refine 網絡不斷優化, 並且在最後的全連接層前加了一個低維嵌入,迫使網絡學習把特徵空間壓縮到更低維度。 此網絡後續有更優化的版本 DeepPrior++。

Feedback Loop:網絡結構如下圖,此網絡在預測 pose 之後,反過來用 pose 生成深度圖,並與輸入的深度圖一起預測更優的 pose,此 pose 又可用來生成更優的深度圖,以此迭代循環優化pose。

3D CNN:網絡結構如下圖,此網絡把2D深度圖上用像素的描述的深度信息,以TSDF的方式轉化為體素(3D的像素),並用3D 卷積代替了普通的2D卷積。

此處最大的貢獻就是在網絡結構上從2D走到了3D,因為傳統2D卷積網絡是為2D圖像設計的,並不一定適合3D信息的提取,而用3D卷積網絡則更容易獲取3D特徵,也就更適用於3D手部關鍵點回歸的問題。

HandPointNet:網絡結構如下圖,此網絡輸入時把深度圖轉成點雲,然後用 PointNet 做手部 3D 關鍵點回歸。

HandPointNet的主要貢獻是首次把PointNet用在了手勢關鍵點回歸上,其中的PointNet是很有代表性的網絡。PointNet 首次用 3D 點雲來作為網絡輸入而不是 2D 圖片。

PointNet 比上一個介紹的 3DCNN 更進一步探索了在 3D 空間中的神經網絡架構,以及如何更有效的提取 3D 特徵,PointNet後續有更優化的版本PointNet++。

手勢識別的四大應用場景

上述我們介紹了常見的手勢識別硬體方案與算法模型,那麼手勢識別真正落地的應用場景都有哪些呢?

很多人或許認為手勢交互還只是停留在科幻電影的概念而已,接下來,我們以產品應用為例,來介紹一些已經商業落地或潛在的落地場景。

1、VR手勢

以 Leap Motion 為代表的很多公司都在做 VR+ 手勢。 VR 強調沉浸感,而手勢交互可以極大的提升 VR 使用中的沉浸感。所以 VR+ 手勢這個落地方向很靠譜,等 VR 得到普及後,定會改變人類的娛樂方式。

此類代表產品:LeapMotion、uSens、極魚科技等。

2、AR手勢

以 HoloLens 為代表的很多公司都在做 AR 眼鏡。AR 眼鏡可能會脫離實體的觸屏和滑鼠鍵盤這些輸入工具,取而代之的輸入是圖像和語音等。此時手勢交互便必不可少,不過 AR 還處在比 VR 市場更早期的階段,需繼續積累技術,等待市場成熟。

此類代表產品有:HoloLens、Magic Leap、Rokid Glass、Nreal、Project North Star、亮風臺等。

Leap Motion Project North Star 的演示片段

3、桌面手勢

以 Sony Xperia Touch 為代表的投影儀+手勢識別,將屏幕投影到任何平面上,再通過手勢識別模擬觸屏操作。

這裡用到的手勢識別比較簡單,基本只要識別單點多點。但使用中手很容易擋住投影儀顯示的屏幕,而且還有顯示清晰度的問題。此場景可能更多的是一種探索,落地的可能性較小。

不過可以開個腦洞:如果把這裡的平面手勢識別改成空中手勢識別,平面投影改成全息 3D 投影,那就可以實現文章開頭提到《鋼鐵俠》裡的全息控制臺了。

空中手勢識別已經能做到了,但目前還沒有真正的全息投影的技術,只有一些偽全息投影。如反射式和風扇式的偽全息投影。

反射式偽全息投影只是把物體的影像反射到反射面板(塑料板)後成一個虛像。因板子透明,所以看起來似乎是在空中直接成像。風扇式偽全息投影是利用人眼的視覺暫留現象,讓畫面看起來像是直接在空中成像。

反射式偽全息投影

風扇式偽全息投影

這些偽全息投影的最大問題就是沒法用手和虛擬影像交互。想要實現《鋼鐵俠》裡面的全息工作檯,最有可能的方式是在 AR 眼鏡裡面實現,只要把計算得到的手勢位姿和顯示設備聯合標定對齊,就可以實現手和虛擬影像的交互了。

此類代表產品有:Xperia Touch、光影魔屏等。

4、車載手勢

車載手勢指的是在開車時用手勢交互控制中控臺的一些選項按鍵等。相比於傳統方式,手勢的優勢是不用每次都去按按鈕或戳屏幕,更智能方便。

在使用觸屏時,司機需要看著屏幕才知道按鈕在哪,看屏幕這一動作,有極大的安全隱患。 而手勢可以配合語音反饋直接操作,不需要盯著屏幕。

車載手勢可以一定程度提高駕駛安全性,但它也有一些缺點,在空中做手勢容易手累, 再加上手勢識別的準確性和延遲問題,遠不如直接用手過去轉轉按鈕、點點屏幕來的方便。所以目前業內基本都採用的都是傳統方式+手勢操作輔助的方式。

此類代表產品有:寶馬7系、拜騰汽車、君馬SEEK 5等。

結語

AI 時代,語音識別和手勢識別等交互方式的加入,讓我們與機器有了更多互動的可能。語音交互在人工智慧時代已經有了先發優勢,正在被逐漸落地並且有望大規模應用。而從手勢識別的落地場景來看,這種交互方式還處在行業早期階段。

但可以預見的是,手勢交互是未來人機互動必不可少的一部分,Rokid 一直致力於 AI 人機互動的研究與探索,代表產品有智能音箱以及 AR 眼鏡,期望能在 AI 時代為用戶帶來自然友好的交互體驗。

在你的想像中,還有哪些場景能用到手勢交互呢?歡迎大家留言討論。

相關焦點

  • 人機互動技術公司uSens 2018CES將展出多場景手勢及SLAM交互方案
    北京2017年12月29日電 /美通社/ -- 連續第三年參展CES的人機互動技術商uSens 2018年將展出多場景手勢及SLAM交互方案。基於核心計算機視覺及人工智慧算法優勢,uSens在移動端手勢及位置追蹤方面不斷上臺階,過往兩年分別展出的黑科技Demo,如今變成了落地案例,應用於AR VR、手機、車載等領域。
  • 手勢交互新突破!ContactPose或助力未來XR再無手柄?
    最近熱度不斷攀升的Oculus Quest 2一體機,在手勢追蹤識別功能上進行了一系列升級,除了早期的特定手勢操控主界面,最新解決方案甚至實現了基於手部追蹤的全文本輸入操作——即便如此,Oculus對於目前在手勢識別技術上取得的成就依然不是非常滿意。
  • 手勢交互新突破!ContactPose或助力未來XR無手柄?
    ,除了早期的特定手勢操控主界面,最新解決方案甚至實現了基於手部追蹤的全文本輸入操作——即便如此,Oculus對於目前在手勢識別技術上取得的成就依然不是非常滿意。 Oculus曾表示,儘管手勢是一種有潛力的新型輸入方式,但由於計算機視覺與定位技術的局限,手勢識別技術的實際應用場景也受到限制。
  • Crunchfish發布XRSkeleton手勢交互解決方案
    (映維網 2020年09月12日)移動交互解決方案開發商Crunchfish日前發布了名為XR Skeleton的手勢控制技術。只需一個標準的手機攝像頭,系統即可檢測和追蹤每隻手的21個關鍵點。這種對人手的描述通常稱為骨架模型,並可以實現非常精確和靈活的交互解決方案,如用於操作虛擬對象或菜單系統。
  • 凌感手勢追蹤算法與詮視視覺模組結合,加速手勢識別在VR/AR中的應用
    凌感自2014年在矽谷成立以來,主要在視覺三維人機互動解決方案開發中進行深入探索。同時它也是全球第一個在有線設備以及移動端中基於inside-out實現26自由度手勢追蹤和6DoF Slam定位的公司。 目前凌感的手勢識別算法,幾乎能夠適配所有的相機,包括深度相機、彩色相機、紅外相機、雙目相機,並且能夠實現靜態和動態兩種不同的手勢識別。
  • 展銳SC9863實現AR+手勢的人機互動
    首頁 > 見聞 > 關鍵詞 > AR最新資訊 > 正文 展銳SC9863實現AR+手勢的人機互動
  • Facebook演示最新手部交互成果:交叉遮擋下的精確手勢判斷
    手部追蹤是FRL Research旨在提升技術交互親民度的研究課題之一。從VR頭顯到AR眼鏡,團隊正在構建下一個能夠讓更多人受益的計算平臺。手部追蹤技術提供了最為熟悉自然的人機互動方式:裸手交互,從而為更多的人打開了沉浸式計算的大門。 Facebook迄今為止已經展示了一系列的研究進展。
  • 移動app互動設計:如何把「手勢流」裝進手機
    屏幕更大時,圖標擴大至70點,這樣可以使手指更容易點擊。關聯手勢和動畫效果在移動設計中,手勢和動畫一定是息息相關的。動畫是用戶在完成整個動作之前,與app交互最直接的信號。這是一個關於在單一的觸控頁面下,元素在跨應用程式上如何實現無縫對接。此外,在蘋果的用戶界面設計準則上,介紹了一些觸控並且如何使用。這會改變我們與iPhone手機的交互方式,當然用戶肯定需要一定的調整期。所以當設計3DTouch時最好考慮到這點,何時應用3DTouch更好。因為相同的手勢對舊版手機來說可能就無效了。
  • 新商業NEO100|凌感科技費越:自然手勢交互好比iphone的自然觸摸,正...
    而凌感科技手勢識別技術的核心,是通過對手部22個關鍵點,26個自由度的追蹤,通過深度學習等算法,對手部骨骼進行識別,實現雙手自然交互。所以,它對關節追蹤會更加精準、穩定,通過深度學習還可以識別雙手遮擋的動作。除汽車外,目前,凌感科技手勢識別技術還應用到AR/VR眼鏡、手機、IOT、智能生產等領域。
  • Untouch聯合廠商PMD全球推廣移動端3D手勢交互
    Untouch創始人兼CEO孫錚表示:「Untouch擁有全棧智能3D視覺解決方案,團隊成員主要來自微軟亞洲研究院、中科院、清華和北大等研究機構,擁有全球領先的視覺交互技術,致力於賦予手機、機器人、無人機、AR/VR等智能設備與人、與場景的智能交互能力。」
  • 這幅眼鏡可以開啟虛擬世界的大門
    不過最近一款全新的VR橫空出世,而它更是一把能打開虛擬世界大門的鑰匙。有了這些,OPPO AR Glass 2021便可實現雙手毫秒級的檢測和追蹤,並且實時掃描環境和局部構建,並在毫米級內完成三維空間定位計算。AR眼鏡除了帶給我們身臨其境的畫面體驗之外,交互也是必不可少的。有了小黑剛剛說的這些出色的硬體配備,OPPO AR Glass 2021便可以實現手機交互、手勢交互、空間定位等多種交互方式。
  • Project Soli無線手勢識別系統:讓你無需觸屏,告別按鈕
    Project Soli包括一款毫米波雷達晶片,可以識別手指和手部「非常細微」的手勢。可以用於在移動端、電腦和電子設備上使用手勢。這一技術有望甩掉手柄和輸入設備。最大的影響領域將會是VR和AR(虛擬實境/增強現實)。在使用VR頭盔的時候,用戶現在需要拿著手柄,但是Project Soli可能允許手勢動作來定義用戶如何在虛擬世界裡移動。
  • 人機智能交互如何改變戰爭面貌
    針對信息化戰場軍事指揮決策的特徵,如何研究和發展軍事指揮決策的人機智能交互技術,以提升指揮決策的能力與效率,成為各國爭相研究的焦點問題。人機智能交互的本質與現狀人機智能交互技術是指通過計算機輸入、輸出設備,以有效的方式實現人與計算機對話的技術。
  • 手勢控制到底為什麼這麼難用?
    焰火工坊創始人婁池對於手勢識別的態度搖擺不定,而毛文濤就 VR 交互這一主題分享了自己的見解。其實交互這件事情,到今天我也是迷茫。因為有人跟我說,加上手勢識別是不是會特別酷?我立刻感覺特別酷。但後來有人說,你試用 15 分鐘看看?我試過後,發現手反正挺疼的。還有人說手柄好,我一瞬間就覺得手柄更好。
  • AR/VR專家告訴你:人機互動的未來場景長啥樣?
    實現沉浸感,需要有交互、顯示和移動性這三方面技術支撐,以下內容,我們將以交互技術為核心展開。在 AR/VR 領域中,交互不再用滑鼠和鍵盤,大部分交互技術均採用手柄。還有位置跟蹤技術,在一些高檔的 VR 設備中會提供,但成本較高,且需要連接電腦或主機來實現。未來,可能會採用用手直接抓取的方式,目前也有很多手勢交互方案提供商。
  • 凌感uSens與詮視科技戰略合作,加速VR/AR設備的手勢識別技術落地
    凌感自2014年在矽谷成立以來,主要在視覺三維人機互動解決方案開發中進行深入探索。同時它也是全球第一個在有線設備以及移動端中基於inside-out實現26自由度手勢追蹤和6DoF Slam定位的公司。
  • FRL:基於4顆黑白攝像頭,Quest如何實現3D手勢識別?
    手勢識別的好處是,VR用戶無須用手柄,戴上頭顯後直接就能通過手勢進行界面控制,一些VR應用搭配手勢識別後,交互更自然,玩法也更多樣化。那麼,Quest的手勢識別算法到底是什麼原理呢?近期,Facebook Reality Labs在一篇名為《MEgATrack:黑白第一人稱攝像頭追蹤手部節點的VR方案》中公開了其背後的更多細節。
  • Leap Motion發布手勢交互引擎beta版
    Leap Motion倡導的三維空間交互與VR可謂完美結合,再一次強勢出現在眾人的視線中。如何能夠實現更自然的手勢交互,也一直都是Leap Motion積極探索的方向。Leap Motion最初關於手勢追蹤設備的設想是將設備平放在桌上,探測用戶在上方的手勢並控制電腦。幾年後,Leap Motion表示他們將「100%專注於VR」,將主要的使用情況設定為頭戴手勢追蹤設備。
  • 當滑鼠消失,人機互動方式能否走進時代舞臺?
    日常生活中,我們常常遇到無法騰出手的局面,這種時候用說話控制你的電腦或手機就是一個非常好的選擇。手勢交互:手勢識別技術無需鍵盤、觸控螢幕或者滑鼠,你只需在空中擺出手勢,機器便自動識別用戶十指的動作路徑、手勢動作、識別十指目標、手勢動作、運動軌跡等,並將識別信息實時轉化為指令信息。
  • AR場景下的互動設計研究——以中文輸入為例 - UXPA中國2016行業文集
    T1-1、T1-2的交互方式是希望改變傳統長條狀的鍵盤排布方式,更容易讓用戶使用空中手勢來完成信息輸入。具體T1-1的交互概念主要來源於AR場景下更多是利用單手選擇並輸入內容,使其更適合用一側的手(右手)來完成交互動作;T1-2則希望能用雙手分擔尋找每個字符的時間,交互心智模型更類似雙手鍵盤輸入。