伯克利AI實驗室最新發文:公布用於機器人抓取的Dexterity Network...

2021-01-09 雷鋒網

雷鋒網AI科技評論按:伯克利AI實驗室最新發文公布了用於機器人抓取的Dexterity Network (Dex-Net) 2.0數據集,這些數據集可以用來訓練根據實際機器人的點雲做抓取規劃的神經網絡。

本文作者為加州大學伯克利分校博士後研究員Jeff Mahler。雷鋒網(公眾號:雷鋒網)全文翻譯如下:

由於傳感器噪聲和遮擋的存在,物體的形狀、位置和質量往往不能被精準確定,因此讓機器人能夠可靠地抓取各種不同的物體是很大的一項挑戰。

Dexterity Network(Dex-Net)2.0是一個以魯棒機器人抓取的物理模型為核心的項目,通過多達上千種3D CAD物體模型,生成了海量的平口鉗抓取數據集。

這些數據集可以用來訓練根據一個實際機器人的點雲做抓取規劃的神經網絡,這個實體機器人可以拿取、運輸各種物體。

為了提高重現性,助力將來的研究,在這裡公開如下三個資料庫:

1、Dexterity Network (Dex-Net) 2.0數據集:670萬對帶有魯棒標籤的合成點雲和抓取數據。

2、Grasp Quality CNN (GQ-CNN)模型:在Dex-Net 2.0數據集中訓練的1800萬個參數。

3、GQ-CNN Python 程序包: 包含代碼,可以復現我們用生成的數據訓練GQ-CNN網絡的結果。(點我打開)(注意下面的系統需求)

在這篇文章中,我們也概述了支持Dex-Net 2.0的方法,在實際機器人上的實驗結果,以及數據集、模型和代碼的細節。

關於Dexterity Network的研究論文和額外信息可以在這個項目的網站上找到。網址如下:https://berkeleyautomation.github.io/dex-net

Dex-Net是加州大學伯克利分校AUTOLAB實驗室的研究項目,由Ken Goldberg教授指導。

抓取的背景

由於傳感器噪聲和遮擋,很難精確的推斷物體的形狀、位姿、材料、質量以及手指與物體之間接觸點的位置等物理性質,因此讓機器人能夠抓取各種不同的物體很困難。

最近的研究結果表明,通過大量人類抓取標籤(human grasp labels)或者真實系統上嘗試抓取的數據訓練的深度神經網絡可以成功地對許多種不同的物體做抓取規劃,甚至都不需要對被抓取的物體做清晰的建模,就像曾在計算機視覺領域裡看到過的泛化結果一樣。

然而,生成訓練數據集可能需要耗費大量時間。

為了減少訓練時間,可以利用雲計算的方法,基於物理抓取模型對大量物體的網格模型快速進行抓取計算。

這些方法通過一個叫抓取魯棒性(the grasp robustness)的參數來排序抓取動作,這個參數是通過力學模型預測出的抓取成功率。通過基於物體位置、表面摩擦等屬性計算出的概率分布,判斷抓取動作對任意的力和力矩的抵抗能力。

不過,這些方法對感知系統提出了很高的要求,需要能夠完美地估算上述屬性或是根據已知的高斯分布來估算屬性。實際中的感知系統很緩慢,容易出錯,可能不能很好地擴展到新的物體上。

儘管經過了30多年的研究,通過試探法(heuristics)進行抓取規劃仍很常見,例如圓柱體探測(detecting cylinders)在家庭整理(home decluttering)和亞馬遜挑揀大賽(the Amazon Picking Challenge)中的應用。

靈敏網絡 (Dex-Net) 2.0

不同於試圖通過圖形來估算3D物體的形狀和位姿,Dex-Net 2.0使用概率模型來從數據集生成綜合點雲、抓取規劃以及抓取魯棒標籤(grasp robustness labels),這個數據集是基於物理的抓取、圖像渲染和相機噪聲模型生成的3D物體網格。

我們設計這個方法主要考慮到的是:魯棒性地用平口鉗抓取物體與物體的形狀息息相關。

把手和圓柱體這樣適合抓取的幾何特徵可以在部分點雲中看到,它們和抓取之間的關聯性也可以在模型生成的樣本中觀察到。

我們假設具有多層濾波器的深度CNN模型可以學到這些關聯性,從而識別出幾何體,與用於圖像分類的CNN模型可以學到類Gabor濾波器類似。

在 「Dex-Net 2.0:藉助生成的點雲和抓取度量分析,用深度學習規劃魯棒抓取」 這篇論文中,我們正則化了這個方法並對其進行研究。

在論文中,我們詳述了Dexterity Network (Dex-Net )2.0,這是一個擁有670萬魯棒抓取和點雲的數據集,數據中帶有我們的概率模型生成的噪音,這個概率模型是我們用平口鉗在桌面上抓取剛性物體得到的。

我們開發了一種深度抓取質量卷積神經網絡(GQ-CNN)模型,並在Dex-Net 2.0上對它進行訓練,用候選抓取規劃和點雲估算抓取的魯棒性(grasp robustness)。

利用GQ-CNN模型,可以從帶有邊緣檢測的輸入點雲得到候選抓取方案,通過對這些候選抓取方案進行採樣,以及執行GQ-CNN估計得到的最魯棒的抓取,就可以在實際機器人上規劃抓取:

在Dex-Net 2.0上進行訓練的時候,GQ-CNN學到了一組看起來可以對不同尺寸圖像檢測梯度的低層次濾波器。

濾波器可以分為兩類:一類是用於估算夾鉗和物體之間碰撞的粗導向梯度濾波器(coarse oriented gradient filters),另一類是用於估算手指和物體之間接觸點表面法向量的精細垂直濾波器(fine vertical filters):

在ABB YuMi上進行了如下實驗

為了評估基於GQ-CNN進行抓取規劃的實際機器人,我們對 ABB YuMi進行了超過1000次的抓取實驗。主要是研究以下兩個指標:

1、模型性能:用一組已知的物體生成數據,只用這些數據訓練的GQ-CNN模型能否讓實際的機器人成功抓取這些物體?

2、普遍性: GQ-CNN模型能否成功地抓取在訓練中沒有出現的新物體?

模型性能

首先,我們測量了這個抓取規劃方法的能力——當用夾鉗舉起、運輸和搖動物體時,是否能一直保持對物體控制。

我們使用了一組8個已知形狀、質心和摩擦特性的3D列印物體,來突出我們的物理模型和實際機器人抓取之間的差異。

為了對失敗模式進行探討,我們為二手指抓手選擇具有對抗性的幾何形狀(adversarial geometry)的物體來進行抓取,比如表面光滑或彎曲,開口的狹小物體。

我們發現Dex-Net 2.0抓取規劃器(grasp planner)用於實際機器人上可以取得高達93%的成功率,比將精確的物體形狀與點雲相匹配的方法快了3倍。

結果表明:1,當物體屬性已知時,我們的物理模型能有效的預測實際機器人的抓取結果;2,GQ-CNN模型能被用於規劃更高精確度的抓取。

下圖是一個例子:

普遍性

我們還測試了一組40個新的有可活動部件或者會變形的物體,例如開罐器和毛巾,從而評估了將抓取規劃泛化到先前從未見過的物體的能力。

在進一步分析數據之後,我們發現了一個令人驚訝的結果:在69次預測能夠成功的抓取中,GQ-CNN模型只出現了一次誤報。

99%的精確度非常重要,因為它表明機器人可以根據它的信心標籤(confidence labels)來預測失敗,並執行諸如戳目標物體或向人求助等恢復動作。

局限

用Dex-Net 2.0抓取規劃的結果表明,只在利用抓取和圖像形成(image formation)的物理模型產生的數據上訓練神經網絡,對於很多種不同的物體都可以進行高可靠性的抓取。然而,當前的方法有幾個局限。

1、傳感器精度。實際的深度相機上,缺失數據之類的噪聲源在Dex-Net 2.0模型中沒有被考慮進來。此外,深度照相機不能識別桌上的透明物體或平面物體。

2、模型局限:Dex-Net 2.0中使用的物理抓取模型考慮到了對剛體的指尖抓取,我們沒有囊括用夾持器夾起一張平的紙或用一個指頭勾起物體的抓取策略。

3、單一物體。該方法只能抓取一個單獨的物體,目前我們正在擴展Dex-Net 2.0模型功能,研究如何從一堆物體中抓取對象。

4、獨立任務。用這種方法規劃抓取可以穩定的拿取和運輸物體,但沒有考慮到在裝配時對物體的精確定位、堆疊或是連接到另一個物體的用例,這時可能需要更精確的抓取。我們正在通過基於任務的抓取質量值(task-based grasp quality metrics)、動態仿真和演示學習研究可能的擴展功能。

數據集和代碼發布

2017年夏天,我們發布了我們的代碼、數據集和經過GQ-CNN權重訓練的一個子集,我們希望這將有助於進一步的研究和對比。

現在我們發布Dex-Net 2.0的訓練數據集和代碼,其中包括了包含670萬個合成數據集的dex-net 2.0數據集,從論文中預先訓練過的gq-cnn模型,以及gqcnn Python包,用於複製我們的實驗,將健壯的掌握在gq-cnn的合成數據上。

我們希望這將有助於開發新的GQ-CNN架構和訓練方法,這些方法將在生成的數據集和我們的機器人已經收集到的數據集上都能運行得更好。

系統需求

這裡有一點需要注意,使用這個特定的數據集進行訓練的機器人具有強大的性能,但並不代表其他機器人也會具有這樣的性能,因為這個數據集是對以下的組件專用的:

1) ABB YuMi夾持器,數據集中使用了它的碰撞幾何外型。

2) Primesense Carmine 1.08傳感器,數據集的渲染中使用了它的相機參數。

3) 相機相對於桌子的空間位置: 在桌子上方50-70釐米範圍內直接朝下攝像。

儘管如此,支撐這個數據集的算法可以為相關的其他二手指夾持器、相機和相機位置產生新的數據集。

我們假設,如果訓練數據集是根據硬體配置中的夾具幾何結構(gripper geometry)、相機內部函數(intrinsics)和相機位置而專門生成的,基於GQ-CNN的抓取規劃將會表現得最好。

ABB YuMi Benchmark

我們最佳的模型在合成數據上只能達到93%的分類精度,為了研究改進GQ-CNN架構,我們計劃在Dex-Net 2.0數據集上做一個表現排行榜(leaderboard of performance)。

由於數據集是針對硬體配置專用的,我們很樂意在我們的實際機器人上對用合成數據訓練的、表現明顯高出其它方法的模型做benchmark。

歡迎任何學科或背景的研究人員加入我們。

Python包

為了幫助訓練GQ-CNN模型,我們開發了 gqcnn Python包。

通過gqcnn,你可以馬上在Dex-Net 2.0生成的數據集上開始訓練GQ-CNN模型。

在我們的RSS論文中有教你復現結果的教程,我們還邀請研究人員在合成數據集和通過ABB YuMi機器人收集的抓取數據集(datasets of grasps)上進行研究,改善分類性能。

我們還使用ROS服務來進行GQ-CNN的抓取規劃。ROS包能使用戶看到在GQ-CNN上對自定的點雲的抓取規劃的結果。

我們鼓勵有興趣的同行在桌面上方約50-70釐米的範圍內安裝一個Primesense Carmine 1.08或Microsoft Kinect for Xbox 360,通過基於GQ-CNN的抓取規劃器進行抓取。

雖然我們的數據集不能推廣到上面提到的其他硬體配置上,但希望通過進一步的研究,能夠做到利用GQ-CNN模型讓其他機器人抬舉和運輸物品。

如果你對這一項目的研究合作感興趣,請給Jeff Mahler發郵件(jmahler@berkeley.edu)。

未來的發布計劃

我們還計劃在2017年如下日期發布Dex-Net系統的附加數據和功能:

Dex-Net Object Mesh Dataset v1.1:在RSS論文中使用的Dex-Net 1.0系統中1500個3D物體模型的子集,這些子集帶有ABB YuMi平口鉗抓取的標籤。2017年7月12號發布。

Dex-Net as a Service: 通過HTTP網絡API對自定義3D模型創建新的數據集並計算抓取魯棒性值(grasp robustness metrics)。2017年秋發布。

Via:http://bair.berkeley.edu/blog/2017/06/27/dexnet-2.0/,雷鋒網編譯。

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 製造神奇機器人的實驗室
    令人驚奇的大學實驗室:製造神奇機器人的實驗室你見過能列印食品的3D印表機嗎?你見過像鳥兒一樣拍著翅膀飛翔的小飛機嗎?你見過像普通動植物一樣也是由一個個小「細胞」組成的細胞機器人嗎?如果你來到美國哥倫比亞大學創意機器實驗室,你就能看見這些神奇的機器人。現在的機器人製造水平日漸提高,本文介紹了兩款該實驗室正在研究的神奇的機器人。軟機器人熒幕上有那麼一類機器人豐富了我們的童年生活:它們體型高大,高達十幾米。
  • 最牛抓取機器人:X射線「看透」物體堆,還能適應不同環境
    第二項研究介紹了一個適應訓練算法,能提升機器人在不同環境中抓取目標物體的能力。在實驗環境中,機器人模型的抓取準確率達到82%!在模擬真實環境條件下,該機器人模型的抓取準確率也可以達到最高90%。一、用X射線「透視」物體堆,抓取準確率比基線策略高15%在電子商務、貨倉貨物裝卸、家庭服務等場景中部署機器人可以節省人力資源、提升人類生活質量。
  • 機器人智能抓取AI+Grasp
    隨著人工智慧的發展,人工神經網絡可以從大量的已知物體的抓取中提取出有用的抓取基元,從而實現對未知物體的抓取。這樣做的好處是不必為每個被抓物體建立幾何模型,讓機器人智能抓取操作物體。2013年以前的工作可以參考[1],下面就近幾年的基於數據的機器人抓取概覽如下。1.
  • 華中大團隊奪取全球首個機器人抓取雲競賽冠軍 機器人未來會讓你...
    8月15日至11月12日,IROS2020雲機器人桌面整理挑戰賽在線上舉行,比賽吸引了包括華中科技大學、卡內基梅隆大學、普林斯頓大學等在內的59支隊伍參加。比賽重點考察服務型機器人桌面整理的能力,縮小人類日常生活中對非結構物體分揀的需求與機器人識別、抓取、分類能力間的差距。「桌面上放置著辦公用品、食品盒、餐具等不規則的物品,需要機器人將這些物品按照要求抓取並放置好。
  • 最新畫面曝光,NASA公布秘密機器人,不久後將用於火星洞穴探測
    我想,NASA最新公布的一款秘密機器人給了我們答案。NASA的科學家們在研究火星探索機器人,跟好奇號、毅力號不同,這一次上去的不是「車」,而是「狗」。就在當地時間12月14日,美國地球物理聯盟(AGU)舉行的年度會議AGU20 Fall Meeting的某一場演講中,NASA噴氣推進實驗室( JPL-Caltech)其中一位研究人員就介紹到一款最新的「火星狗」,這隻火星狗可以做到好奇號、毅力號所做不到的事情。
  • 全球首個機器人抓取雲競賽落幕,華科奪冠,中國團隊包攬前三
    日前,由阿里巴巴聯合主辦的全球首個機器人抓取雲競賽落幕,59 個頂級研究團隊經過角逐,最終華中科技大學奪冠。機器人抓取一直以來都被認為是機器人領域中的典型任務,其實際應用面廣、但需要複雜的研究過程並實現軟硬體一體化。近年來,這一領域的研究有非常大的突破。
  • 騰訊天衍實驗室奪2020世界機器人大賽-BCI腦控機器人大賽雙冠軍
    打開APP 騰訊天衍實驗室奪2020世界機器人大賽-BCI腦控機器人大賽雙冠軍 IoT科技評論 發表於 2020-12-24 14:02:05
  • ​全球首個機器人抓取雲競賽落幕,華科奪冠,中國團隊包攬前三
    日前,由阿里巴巴聯合主辦的全球首個機器人抓取雲競賽落幕,59 個頂級研究團隊經過角逐,最終華中科技大學奪冠。機器人抓取一直以來都被認為是機器人領域中的典型任務,其實際應用面廣、但需要複雜的研究過程並實現軟硬體一體化。近年來,這一領域的研究有非常大的突破。
  • RobotCNC團隊在奪得全球首個機器人抓取雲競賽冠軍後
    12月15日,記者從華中科技大學獲悉,該校iRobotCNC團隊在奪得全球首個機器人抓取雲競賽冠軍後,受到眾多高科技企業的青睞,熵智科技、武漢需要智能等紛紛發來合作邀請。之所以能在短期內受到如此多關注,是由於該團隊參加了線上舉行「IROS 2020雲機器人桌面整理挑戰賽」。
  • 全國高端機器人賽事來了!
    2018年,實驗室以水下機器人為主要載體,指導和鼓勵學有餘力且具有創新精神的在校本科生開展科創活動,參加科創競賽。該機器人長700mm,寬660mm,高300mm,重約30kg,最大深度可達200米,最大航速4節,無線方式可以3小時不間斷工作。採用八軸推進器,動力充沛,行動敏捷,控制穩定,不僅能夠快速上升、下潛、靈活調整姿態,也可以完成側翻、倒立等高難度動作。全新的機械手設計,能夠靈巧快速地抓取水下目標。具有定深巡航、聲吶探測、水下目標自動識別等功能,可用於水下場景的觀測,以及水下目標的智能檢測與自主抓取。
  • 從章魚得到靈感製作的仿生機器人手臂,可抓取活螃蟹
    操控物體是機器人領域最困難的挑戰之一,因此研究人員已經製造了一種先進的軟機械臂,無論在形式還是功能上都與章魚的觸手非常相似。實現的靈活性是軟機器人領域值得注意的進步。機器人世界充滿了令人著迷的想法,這些想法可能會讓我們生活的世界變得更加便利,儘管它對那些即將被機器人取代的人可能產生的負面影響提出了合理的擔憂。與此同時,研究人員正在探索各種方法,從大自然中獲取靈感,使機器人手臂變得更好。
  • 華中科技大學團隊奪取全球首個機器人抓取雲競賽冠軍
    8月15日至11月12日,「IROS 2020雲機器人桌面整理挑戰賽(IROS 2020:Open Cloud Robot Table Organization Challenge)」在線上舉行,由華中大數字製造裝備與技術國家重點實驗室丁漢院士、趙歡教授指導的iRobotCNC團隊,與全球59支高水平隊伍經過3個月激烈角逐,奪得全球冠軍。
  • 新型仿生機器人,能像海葵捕捉獵物一樣抓取物體,比機械手指靈活
    目前大部分機器人是通過機械手指來抓取物體的,這種方式比較接近我們人類的抓取模式,但是卻存在著精度不夠、靈活度低、成本高的缺點。那麼,有沒有其他的抓取模式呢?顯然是有的。最近清華大學和西南科技大學的研究人員就設計了一種新型仿生機器人,這種機器人能夠像海葵捕捉獵物一樣抓取物體。
  • 佛山迎來國內一流機器人展!季華實驗室驚豔亮相
    跳舞翻跟鬥的四足機器狗、3分鐘就能畫出大頭人像的畫家機器人、還有擅長烹飪美味的機器人……在當天舉行的機器人博覽會上,多個機器人行業前沿產品驚豔亮相,吸引不少觀眾駐足觀看。(圖/珠江商報)其中,季華實驗室攜多項展品驚豔亮相,受到廣泛關注和好評!
  • 騰訊天衍實驗室奪世界機器人大賽雙冠軍
    世界機器人大賽-BCI腦控機器人大賽」公布成績,騰訊天衍實驗室和天津大學高忠科教授團隊組成的C2Mind戰隊,入圍BCI腦控機器人大賽「運動想像範式」賽題決賽,最終斬獲技術賽「顳葉腦機組」一等獎,以及技術錦標賽「顳葉腦機有訓練集一等獎」兩項冠軍。
  • 谷歌最愛的機器人科學家戈德堡:5G來了,未來將是雲機器人的天下
    今年3月,科創板公布了首批企業名單。在科創板企業潛在標的中,機器人相關企業成科創板最受青睞的企業之一。隨著機器人行業的高速發展,機器人與雲相結合的概念於2010年首先被提出,但是由於當時網際網路技術的限制,雲機器人仍處於研究階段,始終沒有突破性的技術進展。
  • 騰訊天衍實驗室奪世界機器人大賽雙冠軍 新算法突破BCI瓶頸
    日前,「2020世界機器人大賽-BCI腦控機器人大賽」公布成績,騰訊天衍實驗室和天津大學高忠科教授團隊組成的C2Mind戰隊,經過多輪賽程的激烈比拼,實力入圍BCI腦控機器人大賽「運動想像範式」賽題決賽,最終成功斬獲技術賽「顳葉腦機組」一等獎,以及技術錦標賽「顳葉腦機有訓練集一等獎」兩項冠軍。
  • 騰訊天衍實驗室奪世界機器人大賽雙冠軍,新算法突破BCI瓶頸
    【獵雲網(微信:ilieyun)北京】12月17日報導日前,「2020世界機器人大賽-BCI腦控機器人大賽」公布成績,騰訊天衍實驗室和天津大學高忠科教授團隊組成的C2Mind世界機器人大賽在業內被譽為機器人界的「奧林匹克」,是目前國內外影響廣泛的機器人領域官方專業賽事,自2015年起已成功舉辦五屆,共吸引了全球20餘個國家12萬餘名選手參賽。
  • 柔性機器手可以抓取生蛋黃,見過嗎
    本輪資金主要用於優化現有產品工藝路線、新的產品研發、落實設備和行業解決方案及醫療產品等業務計劃。SRT是一家機器人柔性末端執行器及解決方案提供商,是國內首家研發量產柔性夾爪的公司。SRT面向3C、動力電池、保溫杯、汽車零配件等行業頭部生產廠商,提供柔性抓取解決方案,解決異形、易損物品的抓取問題。
  • 騰訊天衍實驗室奪世界機器人大賽雙冠軍 運動想像算法應用場景廣泛
    原標題:騰訊天衍實驗室奪世界機器人大賽雙冠軍,新算法突破BCI瓶頸日前,「2020世界機器人大賽-BCI腦控機器人大賽」公布成績,騰訊天衍實驗室和天津大學高忠科教授團隊組成的C2Mind戰隊,經過多輪賽程的激烈比拼,實力入圍BCI腦控機器人大賽「運動想像範式」賽題決賽,最終成功斬獲技術賽「顳葉腦機組」一等獎,以及技術錦標賽「