MIT新研究:機器人可以通過視覺和觸覺感知物體

2020-12-11 天極網

6月18日消息,日前,麻省理工學院計算機科學與人工智慧實驗室(CSAIL)的研究人員提出了一種預測性人工智慧,它可以通過視覺和觸覺來感知物體。

該團隊的系統可以從視覺輸入創建逼真的觸覺信號,並從這些觸覺輸入中預測哪些物體和哪些部分被觸摸。他們使用KUKA機器人手臂,並在手臂上添加了一個名為GelSight的特殊觸覺傳感器,該傳感器由麻省理工學院的另一個小組設計。

該團隊使用一個簡單的網絡攝像頭記錄了近200件物品,如工具、家用產品、物等,被觸摸次數超過1.2萬次。將這1.2萬個視頻片段分解為靜態圖像,該團隊編制了「VisGel」,這是一個包含300多萬個視覺/觸覺配對圖像的數據集。

麻省理工學院博士後Jun-Yan Zhu在關於該系統的新論文中說:「通過觀察現場,我們的模型可以想像觸摸平坦表面或鋒利邊緣的感覺。通過盲目地觸摸,我們的模型可以從觸覺中預測與環境的相互作用。將這兩種感官結合在一起可以增強機器人的能力,並減少我們在涉及操縱和抓取物體的任務時可能需要的數據。」

為了給機器人配備更多類似人類的物理感官,麻省理工學院曾利用深度學習技術,從無聲視頻片斷中預測聲音,還創建過一個模型,預測物體對物理力的反應。不過,這兩項工作都使用了無法理解視覺和觸覺之間交互作用的大型數據集。該團隊通過使用VisGel數據集以及生成對抗網絡(GANs)解決了這一問題。

雖然我們的觸覺給了我們一個感受世界的通道,但我們的眼睛可以幫助我們立即理解這些觸覺信號的全貌。在此之前,經過編程能夠看到或感覺到的機器人無法完全交替使用這些信號,而麻省理工學院的這項研究可以更好地彌補這一感官差距。

相關焦點

  • MIT最新AI研究,讓機器人利用觸覺感知物體
    【獵雲網(微信號:)】6月17日報導(編譯:胖虎)麻省理工學院計算機科學及人工智慧實驗室(CSAIL)的研究人員表示,在不久的將來,機器人將能夠通過觸覺來感知物體。一篇最新的相關論文將於下周在加利福尼亞長灘市的計算機視覺與模式識別會議上公開,這篇論文描述了一種人工智慧系統,它可以通過觸覺信號生成觸摸物的視覺形象,還能根據視覺數據來預測物體的觸感。「通過觀察物體的表面,我們的模型可以預測某個平面或稜角的觸感。通過觸摸物體,我們的人工智慧模型可以根據觸感來構建感知到的環境。
  • 科學家給予軟體機器人以觸覺感知
    機器人領域最熱門的研究方向之一就是軟體機器人,它利用的是柔性材料,不是傳統的剛性材料。但由於軟體機器人缺乏良好的感知能力,所以一直受到限制。一個好的機器人抓手需要感覺到它所接觸到的東西(觸覺傳感)同時需要感知手指的位置(本體感知)。這種傳感一直是大多數軟體機器人所缺少的。
  • 機器人也能「甩筆」,擁有觸覺分析能力,上交&MIT獲IROS 2020最佳...
    來源 iros2020.org (http://iros2020.org/)下圖為機器人觸覺分析的流程通過握著物體旋轉一定角度和抖動物體來感知物理特性,從而推斷出最佳的控制策略實現甩筆。更多的詳細內容可以訪問論文原文和項目主頁:論文連結:http://gelsight.csail.mit.edu/swingbot/IROS2020_SwingBot.pdf項目地址:http://gelsight.csail.mit.edu/swingbot/高精度、低成本的觸覺傳感器研究人員使用的是一款名為
  • 一種基於深度學習的視覺觸覺感知方法
    圖為研究人員介紹的基於視覺的觸覺感知策略為了有效地與周圍環境互動,機器人應該能夠像人類一樣,通過觸摸來識別不同物體的特徵。這將使他們能夠更有效地抓住和管理物體,利用傳感器收集的反饋來調整他們的抓取和操作策略。考慮到這一點,世界各地的研究小組一直在努力開發技術,通過分析傳感器收集的數據,賦予機器人觸覺,其中許多數據是基於深度學習架構的使用。雖然其中一些方法很有前途,但它們通常需要大量的訓練數據,而且並不總是能夠很好地泛化以前不可見的對象。
  • 不再只靠視覺和觸覺,機器人用「耳朵」聽來區分不同物體
    然而,到目前為止發展起來的大多數技術僅僅注重於人為地再現視覺和觸覺,而忽略了其它的感覺,如聽覺。現在,卡耐基梅隆大學的研究人員發現,機器人的感知能力可以通過增加另一種感官來顯著提高:聽覺。卡內基梅隆大學(CMU)的一個研究小組最近進行了一項研究,探索利用聲音開發具有更先進傳感能力的機器人的可能性。
  • 英特爾神經擬態計算開啟機器人「觸覺」感知,比人類的感覺神經系統...
    2020年7月16日——今天,新加坡國立大學(NUS)的兩名研究人員,同時也是英特爾神經擬態研究社區(INRC)的成員發表了最新研究結果,表明在機器人領域,與基於事件的視覺和觸覺感知相結合,英特爾神經擬態計算大有可為。這項工作著重介紹了與目前只有視覺的系統相比,將觸覺引入機器人技術能夠顯著提升系統能力和功能,並且神經擬態晶片在處理此類感官數據方面能夠超越傳統架構。
  • 英特爾神經擬態計算開啟機器人 「觸覺」感知,比人類的感覺神經...
    2020年7月16日——今天,新加坡國立大學(NUS)的兩名研究人員,同時也是英特爾神經擬態研究社區(INRC)的成員發表了最新研究結果,表明在機器人領域,與基於事件的視覺和觸覺感知相結合,英特爾神經擬態計算大有可為。
  • 機器人與觸覺傳感技術的碰撞,一文初探人類與機器人的觸覺傳感
    通過觸摸感知到的觸覺(Sense of Touch)可以幫助人類評估物體的屬性,如大小、形狀、質地、溫度等。此外,還可以利用觸覺來檢測物體的滑脫,進而發展人類對身體的認識。觸覺將壓力、振動、疼痛、溫度等多種感覺信息傳遞給中樞神經系統,幫助人類感知周圍環境,避免潛在的傷害。研究表明,與視覺和聽覺相比,人類的觸覺在處理物體的物質特徵和細節形狀方面更勝一籌。
  • 機器人有「觸覺」了!上交&MIT發明一款機器人,拿起筆就能甩
    如果可以讓機器人自己進行數據採集、數據分析,無疑可以節省很多人力。麻省理工學院(MIT)計算機科學系博士王少雄認為能夠讓機器人學會自我分析是一件令他十分興奮的事情,「機器人可以利用自動化的方式自己重置系統,以及通過和物體交互的過程來自己學習」,他覺得這樣在數據標註方面可以節省很多人力。
  • 機器人也能甩筆,擁有觸覺分析能力,上交獲IROS 最佳論文獎
    來源 iros2020.org (http://iros2020.org/)下圖為機器人觸覺分析的流程通過握著物體旋轉一定角度和抖動物體來感知物理特性,從而推斷出最佳的控制策略實現甩筆。該項目通過對多種觸覺探索動作的信息融合,讓機器人端到端的去學習概括手中物體的物理特性,並依靠這個物理特徵來實現高難度的手上控制任務(in-hand swing-up)。
  • 機器人有 「觸覺」 了!上交&MIT發明一款機器人,自己拿起筆就能甩|...
    如果可以讓機器人自己進行數據採集、數據分析,無疑可以節省很多人力。麻省理工學院(MIT)計算機科學系博士王少雄認為能夠讓機器人學會自我分析是一件令他十分興奮的事情,「機器人可以利用自動化的方式自己重置系統,以及通過和物體交互的過程來自己學習」,他覺得這樣在數據標註方面可以節省很多人力。
  • 看一眼就知手感,北大學神聯手朱俊彥讓機器人「想像」觸感
    機器之心報導參與:shooting、一鳴、杜偉我們可以通過視覺、聽覺和觸覺來感知物體,而且這幾種感知是可以同時進行且互相感受的。但是機器人卻很難做到這一點,它也許能「看」,也可以「觸摸」,但是這些感知信息卻無法交換。
  • 一種通過分析圖像來估計物體表面觸覺特性的模型
    近年來,許多機器人研究人員一直在努力開發技術,使機器人能夠評估物體或表面的觸覺屬性,這最終可能為它們提供類似於人類觸覺的技能。羅格斯大學(Rutgers University)專攻計算機視覺和人工智慧的博士生馬修·普裡(Matthew Purri)在之前研究的基礎上,最近開發了一種基於卷積神經網絡(convolutional neural network, CNN)的模型,可以通過分析物體表面的圖像來估計物體表面的觸覺屬性。
  • 機器人也將擁有和人類一樣的觸覺分析能力?
    來源 iros2020.org (http://iros2020.org/)   下圖為機器人觸覺分析的流程通過握著物體旋轉一定角度和抖動物體來感知物理特性,從而推斷出最佳的控制策略實現甩筆。   更多的詳細內容可以訪問論文原文和項目主頁:   高精度、低成本的觸覺傳感器  研究人員使用的是一款名為 GelSight 的機器人觸覺傳感器,該傳感器也發明於此 MIT 項目組(指導教授:Edward Adelson)。
  • MIT開發出帶觸覺柔性機械手,能靈活操作電線等可變形物體
    7月14日,麻省理工學院在機器人領域國際頂級會議RSS2020上展示了一對搭載高解析度觸覺傳感器的機械手,它們能夠靈活操作電纜、電線等可變形物體。研究團隊稱,這是機器人首次在沒有其他機械幫助的情況下實時操作電纜。
  • 懂輕重 知冷暖 19個超敏電極賦予機器人觸覺感知
    觸覺,其實是身體與外界接觸獲得的感知。而聽覺則主要是通過耳朵獲取聲音來感知,兩者存在著明顯的差異,而觸覺具有被「刺」的特徵,所以更難被量化。同時我們也知道通感產生的基礎是大腦相應的神經細胞之間發生了共鳴與聯想,而這種共鳴和聯想不僅限於感官間,還包括了情緒的主觀體驗。
  • MIT的機器人會玩疊疊樂了!手殘的你怕不怕?
    在機器人小心翼翼地戳木塊時,一臺計算機利用攝像頭和腕帶接收視覺和觸覺反饋,並將這些測量值與機器人之前的動作進行比較。它還考慮了那些動作的結果,具體來說,即一塊積木在特定配置下及受到一個特定的力推動時能否被成功抽出。該機器人能實時「學習」是繼續推動木塊還是轉向新的目標,以防積木塔倒塌。
  • 可拉伸的「皮膚」傳感器:讓機器人和虛擬實境擁有人類觸覺!
    背景觸覺感知能力,是機器人靈巧操控各種物體不可缺少的能力之一。目前市面上絕大多數的機器手都是通過機械化的方式,實現抓握和觸覺感知功能。可是,這樣做不僅僵硬刻板,並且非常容易損傷抓握對象。不誇張地說,可拉伸的傳感器可以改變機器人的功能和感知方式。筆者曾介紹過美國康奈爾大學設計的柔性機器人手,它採用可拉伸的彈性光波導作為感知彎曲、伸展與力量的傳感器,能夠抓握並感知各種形狀與材質的物體。例如,這種假肢手可觸摸三個西紅柿,感知其柔軟度,從而判斷其成熟程度。
  • 一文帶你了解基於視覺的機器人抓取自學習(Robot Learning)
    研究人員根據觀察結果會在特徵向量之間建立關係,並使用它來學習場景和物體的表示。這些場景和物體可用於識別對象實例,將它們在場景中進行定位,並在機器人從目標箱中檢索命令對象時,執行以目標為導向的任務。整體的抓取過程是通過記錄場景圖像,抓取和移除物體以及記錄結果,該抓取過程也可以用於為文中的方法自動收集訓練數據。
  • 觸覺,或許是目前機器人最難以實現的一種功能
    目前我們已知的機器人可以走路,看,說,聽,並操縱機器人手中的物體。甚至還有一個又嗅覺的機器人。但是觸覺卻說起來容易做起來難以理解,目前正在研究的一些方法存在局限性,但科研人員正在開發一種可以克服其中一些問題的新技術。