機器人也能甩筆,擁有觸覺分析能力,上交獲IROS 最佳論文獎

2020-12-16 手機鳳凰網

機器之心發布

機器之心編輯部

人類善於利用手指觸覺來感知物體的物理特性(包括質量、重心、轉動慣量、表面摩擦等),從而完成高難度的控制任務。在不遠的將來,機器人也會擁有觸覺分析能力。在剛剛結束的機器人頂會 IROS 2020 上,上海交大 & MIT 聯合項目 SwingBot 為我們展示了如何讓機器人通過觸覺傳感器來學習感知物體複雜的物理特性(tactile exploration),從而完成一個高難度的甩筆任務(in-hand object swing-up)。該工作也摘得此次大會的最佳論文獎項。

IROS2020 最佳論文獎項。來源 iros2020.org (http://iros2020.org/)

下圖為機器人觸覺分析的流程通過握著物體旋轉一定角度和抖動物體來感知物理特性,從而推斷出最佳的控制策略實現甩筆。

該項目通過對多種觸覺探索動作的信息融合,讓機器人端到端的去學習概括手中物體的物理特性,並依靠這個物理特徵來實現高難度的手上控制任務(in-hand swing-up)。更多的詳細內容可以訪問論文原文和項目主頁:

論文連結:http://gelsight.csail.mit.edu/swingbot/IROS2020_SwingBot.pdf

項目地址:http://gelsight.csail.mit.edu/swingbot/

高精度、低成本的觸覺傳感器

研究人員使用的是一款名為 GelSight 的機器人觸覺傳感器,該傳感器也發明於此 MIT 項目組(指導教授:Edward Adelson)。區別於傳統觸覺傳感器依賴於稀疏的電極陣列(基於電阻 / 電容 ),GelSight 是一個基於光學的觸覺傳感器,通過一個微型相機來拍攝接觸面的三維幾何形變,可以返回高精度的觸覺信息(見下圖是 GelSight 重建的奧利奧餅乾表面)。

更值得一提的是,因為只需要一個低成本的微型攝像頭和一個樹莓派控制器,GelSight 的製作總成本只有 100 美金(700 元),遠低於市面上的其他觸覺傳感器。

GelSight 觸覺信息效果圖。來源:[2]

在本篇工作中,研究人員將 GelSight 安裝在了機器人二爪夾具的一側,通過在傳感器上標定靶點和重建三維信息,高密度的力學反饋可以以每秒 60 幀的速度實時傳輸出來。

基於多種觸覺探索動作的物理特性分析能力

人類可以通過多種觸覺探索動作(觸摸、甩、掂量)來概括手上物體的物理特性(重量、光滑程度、重心位置等)[1],而且人類並不需要測量這些物理參數的精確數值,而是用自己的經驗結合觸覺手感來實現對手中物體高難度的控制。

受這個觀察的啟發,該項目的研究人員首先提出了一個多觸覺探索的信息融合模型(Information fusion model for multiple tactile exploration actions),該模型的目的是整合不同的機器人觸覺探索動作信息到一個共同的物理特性特徵空間(Physical embedding)中,從而實現對物體多種物理特性(質量、重心位置、轉動慣量和摩擦力)的概括能力。

多觸覺探索動作的信息融合模型。來源:論文

研究人員為機器人設計了兩種基礎的探索動作:(1)緊握物體並旋轉一定角度(in-hand tilting)和(2)放鬆緊握狀態並抖動物體(in-hand shaking)。動作(1)的觸覺反饋信息會通過一個卷積神經網絡(CNN)來輸出一個一維的特徵向量;動作(2)的抖動因為是時序信息,會用一個循環神經網絡(RNN)來處理獲得相應的特徵。這兩個特徵信息通過拼接和一個由若干多層感知器(MLP)組成的融合模型進行整合,得到一個低維的物理特徵概括(physical feature embedding)。

區別於逐個測量每種不同的物理特性,這種信息整合模型的一大優勢是可以根據任務來自主調節對不同物理信息的關注程度,因為很多任務是無法明確分析出是哪一種物理特性起到了主導作用,而使用該方法可以讓機器人自主地學習並選擇需要的物理信息。此外,這兩個觸覺探索動作加起來只需要 7 秒的時間,相比於用精密的儀器來逐個測量物體的質量和摩擦力等,該方法的效率也有很大的提升,並且不需要額外的測量儀器的輔助,更接近人類的觸覺感知能力

此外,為了讓機器人自主學習選擇最需要的物理信息,研究人員接著提出了一個控制預測模型,該模型通過輸入先前獲得的物理特徵向量和機器人控制參數,來預測最終物體會被甩到的角度。在訓練過程中,整個流程是用一個端到端(end-to-end)的訓練算法來實現的。研究人員設計了一個機器人自動採集數據的系統,並且 3D 列印了可以隨意調節物理特性的模型來採集數據,具體如下兩個動圖所示:

可變物理特性的模板物體。

數據收集流程。

研究人員讓機器人自主採集了 1350 次甩筆的數據,其中包含了 27 個不同物理特性的物體。在測試的時候,研究人員額外選擇了 6 個訓練數據中不包含(unseen)的新物體,機器人需要通過觸覺探索模型來確定未知物體的物理特性,並根據任務要求的最終甩到的角度,來選擇一套成功率最高的控制參數。

實驗成果

研究人員首先對比了使用和不使用多觸覺探索融合算法對預測控制模型準確率的影響(數值越低,準確度越高),其中融合算法(Comb.)在已知和未知物體上的預測誤差率都遠低於不使用觸覺信息(None)。此外融合算法(Comb.)的表現也比單一使用一種觸覺探索動作(Tilt.: tilting-only, Shak.:shaking-only)的算法效果好。

以下是機器人在測試過程中,通過使用多觸覺探索融合算法來實現對未知物體(unseen objects)的物理特性探索和上甩效果(swing-up)。第一個任務要求將物體上甩至相對於傳感器 90 度的角度位置:

第二個任務要求將物體上甩至相對於傳感器 180 度的位置:

研究人員緊接著探索融合算法學習到的物理特徵空間到底包含哪些信息。他們用一組額外的多層感知器來回歸(regression)每一個物理特性的具體參數,並計算誤差百分比(數值越低,準確度越高)。

如下表所示,可以發現第一個旋轉動作(Tilting)對物體的質量(Mass)、重心(Center of mass)和轉動慣量(Moment of inertia)的信息捕捉更準確。而第二個搖晃動作(Shaking)對物體接觸部分的摩擦力(Friction)的把握更準。將兩種探索動作融合的算法(Combined)取得了最好的回歸準確率。

最後研究人員進一步探索所學習到的物理特徵空間是如何能夠做到對未知物體依然適用的。他們可視化了 6 個未知物體的數據分布並展示在了下圖 (b) 中,其中 x 軸表示控制參數,y 軸表示最終上甩的角度。在圖 (a) 中,研究人員用 PCA 提取了每個採樣中網絡輸出的物理特徵向量的主成分(2 維)並可視化在這個二維點圖中。觀察可以發現,如果兩個物體的控制策略相近(例如物體 5 和物體 6),他們的物理特徵間距也會越近,而兩個物體的控制策略相差較大(例如物體 1 和物體 4),則在特徵空間上的間距也會更大。

物理特徵可視化。來源:論文

作者介紹

本項目的共同第一作者是:

王辰(Chen Wang): 本科畢業於上海交通大學,師從盧策吾教授。他即將前往 Stanford 攻讀計算機博士學位,該項目是其在 MIT 暑研期間完成的。個人主頁:http://www.chenwangjeremy.net

王少雄(Shaoxiong Wang):MIT CSAIL 博士生四年級,師從 Prof. Edward Adelson(此項目指導教授),本科畢業於清華大學。個人主頁:http://shaoxiongwang.com/

參考文獻:

[1] Lederman, Susan J., and Roberta L. Klatzky. "Hand movements: A window into haptic object recognition." Cognitive psychology 19.3 (1987): 342-368.

[2] M. K. Johnson and E. H. Adelson, "Retrographic sensing for the measurement of surface texture and shape," 2009 IEEE Conference on Computer Vision and Pattern Recognition, Miami, FL, 2009, pp. 1070-1077, doi: 10.1109/CVPR.2009.5206534.

相關焦點

  • 甩筆機器人獲IROS 2020最佳論文獎;UW實時高解析度背景摳圖
    在不遠的將來,機器人也會擁有觸覺分析能力。在剛剛結束的機器人頂會 IROS 2020 上,上海交大 & MIT 聯合項目 SwingBot 為我們展示了如何讓機器人通過觸覺傳感器來學習感知物體複雜的物理特性(tactile exploration),從而完成一個高難度的甩筆任務(in-hand object swing-up)。
  • 機器人有「觸覺」了!上交&MIT發明一款機器人,拿起筆就能甩
    今年,王少雄和另外一位一作王辰的一篇有關機器人可以自我採集觸覺數據並自我分析,最終能夠完成特定動作的論文獲得了機器人領域國際頂會 IROS 2020 的最佳論文獎。下圖的機器人就是他們研究的成果,它叫 SwingBot,可以把它理解為是一個 「甩筆」 機器人。
  • 獲ICRA最佳學生論文,機器人控制雙獎,這個小哥機械手玩球技術嫻熟
    其中華人小哥 Shenli Yuan 等的研究《Design of a Roller-Based Dexterous Hand for Object Grasping and Within-Hand Manipulation》獲得了此次會議的最佳學生論文獎和最佳機器人控制論文獎。
  • 內地高校憑磁性球體機器人首獲機器人頂級會議最佳論文獎
    目前,他在該校的機器人與人工智慧實驗室讀博二,導師是實驗室執行副主任林天麟教授。前不久,梁冠琪作為第一作者的論文獲得了IEEE智慧機器人與系統國際會議(IROS)的機器人機構設計(Robot Mechanism and Design)最佳論文獎。獲獎的是一種叫做FreeBOT的球形機器人系統,它們之間能夠通過磁性自由地連接在一起。
  • CIKM 2020最佳論文出爐!NUS和RMIT同獲最佳長論文獎
    以下介紹這兩篇最佳長論文。  1  最佳長論文一    2  最佳長論文二  自動 高亮顯示幫助用戶在保持準確性的同時可以更快地評估答案,特別是當高亮顯示與注釋類似時。  最後,文末附上今年所有最佳長論文的提名:
  • 北大獲中國首個WWW大會最佳論文獎,提出ELSA跨語言情感分析模型
    會議閉幕式上,大會主席公布了兩篇最佳長論文和一篇最佳短論文。其中來自北京大學信息科學技術學院計算機科學技術系、高可信軟體技術教育部重點實驗室劉譞哲副教授課題組的論文「Emoji-Powered Representation Learning for Cross-Lingual Sentiment Classification」獲得了今年WWW大會最佳長論文獎,這是WWW歷史上中國學術研究機構(含港澳臺)首次獲此榮譽。
  • NeurIPS 2020獎項出爐:GPT-3等三項研究獲最佳論文獎
    北京時間 12 月 8 日凌晨,正在線上舉行的全球人工智慧頂會 NeurIPS 2020 公布了最佳論文等獎項。在一千八百餘篇論文中,三篇論文獲會議最佳論文獎項,OpenAI 等機構的 GPT-3 研究名列其中,可謂實至名歸。
  • ACCV 2020最佳論文等三項大獎出爐!華為諾亞獲最佳學生論文獎
    ACCV 2020 共錄用論文 255 篇,官方提供所有論文開放下載。官網連結:http://accv2020.kyoto/截止目前,大會已經公布了最佳論文獎、最佳學生論文獎、最佳應用論文獎等三項大獎,其中帝國理工和華為諾亞方舟合作獲得了最佳學生論文獎。以下AI科技評論就帶大家讓我們一起來看看這三項大獎吧 !
  • 華人一作獲最佳論文獎,第四大視覺頂會BMVC大獎出爐!
    作者 | 陳大鑫近日,BMVC 2020最佳論文獎、最佳論文獎亞軍、最佳學生論文獎、最佳學生論文獎亞軍、最佳工業論文獎等五項大獎出爐。其中最佳論文獎四位作者當中包含一作在內有三位是加利福尼亞大學戴維斯分校以及英偉達公司的國人/華人學生。
  • ICME 2019丨京東AI榮獲最佳論文獎殊榮,京東再現技術轉型強勁實力
    》(IEEE TMM)雜誌評選為2019年最佳論文獎;京東人工智慧研究院資深研究員石海林博士在ICME大會上舉辦「Grand Challenge of 106-p Facial Landmark Localization」大賽,吸引來自全球的160餘只隊伍參與;京東人工智慧研究院在ICME大會現場搭建展臺,梅濤博士也在展臺前與參觀觀眾進行交流,暢談多媒體領域的高新技術進展。
  • 太極二作李子懋獲SIGGRAPH最佳博士論文獎,華人連續三年獲此殊榮
    機器之心報導參與:魔王、蛋醬、杜偉剛剛,頂級計算圖形學機構 ACM SIGGRAPH 頒發了 2020 年最佳博士論文獎。MIT CSAIL 博士後研究員、太極(Taichi)論文第二作者李子懋(Tzu-Mao Li)獲得該獎項。
  • UC伯克利摘最佳論文、HuggingFace獲最佳demo,EMNLP2020獎項公布
    機器之心報導編輯:魔王、杜偉、小舟剛剛,正在進行中的 EMNLP 2020 大會公布了一系列獎項,其中最佳論文獎由加州大學伯克利分校的研究者獲得,愛丁堡大學華人博士生 Yanpeng Zhao 為一作的論文獲得了最佳論文榮譽提名獎(共 4 篇論文獲此獎項
  • 騰訊摘獲最佳長論文獎
    作者 | 陳大鑫近日,RecSys 2020官網公布了本屆最佳長短文論文獎。來自騰訊PCG團隊的四位作者Hongyan Tang、Junning Liu、Ming Zhao、Xudong Gong憑藉研究出一種新的多任務學習個性化推薦模型獲得了最佳長論文獎,獲獎論文:《Progressive Layered Extraction (PLE): A Novel Multi-Task Learning (MTL) Model for Personalized
  • FUTEK機器人觸覺力測量應用
    FUTEK 機器人觸覺 力測量應用 多個負載按鈕稱重傳感器用於測量 機器人 手指 產生的觸覺力。 五個微型加載按鈕( LLB 系列)與 FUTEK 的 USB 解決方案以及 SENSIT 測試和測量軟體 配對。
  • 53年來國內唯三,華為MindSpore論文獲國際頂會最佳論文提名
    據任正非透露,華為已擁有700多名數學家。現在,這些數學家的基礎研究,讓華為在AI和晶片等領域得到了回報。最近,來自鄭州數學工程與先進計算國家重點實驗室的趙捷老師與華為MindSpore團隊合作,憑藉著在基礎數學上的能力,解決了一個AI晶片優化的重要問題,獲得了頂級學術會議MICRO 2020的最佳論文提名,MICRO是計算機體系結構領域的國際頂級會議,這也是中國團隊53年第3次入圍該大會的最佳論文提名。
  • 【探討】機器人能擁有人類情感,成為「閨蜜」嗎?
    把看不見摸不著的「情感」,量化成機器可理解、可表達的數據或數值,機器人的「情感」即由此而來。  人們確定能抵禦得了來自「讀心術」的誘惑麼?當機器人具有了意識和情感,它就是「人」了嗎?什麼是「情感分析」?機器人如何學習「情感計算」?  情感機器人從何而來?
  • 我校學子獲美國大學生數學建模競賽最高獎
    此外,統計學院另有一支隊伍獲Finalist特等獎提名獎,4人獲Meritorious Winners優異獎(一等獎)14人獲Honorable Mentions榮譽獎(二等獎),36人獲Successful Participant成功參與獎。
  • 航院助理教授眭亞楠獲得2020年機器人與自動化國際會議(ICRA)最佳...
    清華新聞網6月16日電 在近日舉行的2020年機器人與自動化國際會議(International Conference on Robotics and Automation,簡稱ICRA)上,清華大學航天航空學院助理教授眭亞楠與美國加州理工學院的合作者發表了題為「基於偏好反饋的外骨骼步態優化學習」(Preference-Based
  • 泉州法院24篇論文獲省級獎項!
    獲獎啦!泉州中院獲評「組織工作先進獎」連續7年獲此殊榮德化、惠安、安溪法院也獲評「組織工作先進獎」本屆學術討論會圍繞「審判體系和審判能力現代化與行政法律適用問題研究」主題,面向全省法院徵集論文。泉州法院共徵集到論文226篇,擇優推薦35篇優秀論文選送全省評選。泉州法院共有24篇論文獲獎,其中一等獎3篇、二等獎5篇、三等獎4篇、優秀獎12篇。獲獎篇數比上一屆增加60%,佔全省獲獎數量的22%,創歷史新高!獲獎數量和層次居全省前列!