每天一分鐘,帶你讀遍機器人頂級會議文章
標題:Siamese Convolutional Neural Network for Sub-Millimeter-Accurate Camera Pose Estimation and Visual Servoing
作者:Cunjun Yu, Zhongang Cai, Hung Pham, Quang-Cuong Pham
來源:IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),2019
編譯:張寧
審核:黃思宇,孫欽
這是泡泡一分鐘推送的第 548 篇文章,歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,後臺留言申請授權
視覺伺服(VS)是一種重要技術,可用來處理需要高度準確性的機器人任務,在Visual Servoing(VS)中,通常是從通常安裝在機器人末端執行器上的攝像機拍攝的圖像用於指導機器人運動。我們提出了一種基於孿生架構的新神經網絡,用於高度精確的相機姿態估計。反過來,這可以用作粗略VS之後的最終優化步驟,或者如果以迭代方式應用,則可以單獨用作獨立VS。我們的神經網絡的關鍵特徵是它可以輸出任何一對圖像之間的相對姿勢,並且精度達到亞毫米級。
我們證明了我們的網絡可以將姿勢估計誤差從初始位置減少到平移0.6毫米和旋轉0.4度。如果一次應用,誤差為10毫米/ 5度,或者如果反覆應用,則誤差為幾釐米/十度。該網絡可以推廣到相似的對象,對於變化的光照條件具有魯棒性,並且可以推廣到部分遮擋(當迭代使用時)。所獲得的高精度可以解決下遊的低公差裝配任務:使用我們的網絡,工業機器人在VGA連接器插入任務中無需任何力感測機制即可獲得97.5%的成功率。
圖1:使用工業機器人進行插入實驗。凸型連接器通過相機連接到末端執行器。末端執行器的更好視圖位於右上角。
圖3:母連接器具有不同的形狀(A:藍色;B:白色;C:黑色)和尺寸(1,2和3);使用相應尺寸的公連接器。
Abstract
Visual Servoing (VS), where images taken from a camera typically attached to the robot end-effector are used to guide the robot motions, is an important technique to tackle robotic tasks that require a high level of accuracy. We propose a new neural network, based on a Siamese architecture, for highly accurate camera pose estimation. This, in turn, can be used as a final refinement step following a coarse VS or, if applied in an iterative manner, as a standalone VS on its own. The key feature of our neural network is that it outputs the relative pose between any pair of images, and does so with submillimeter accuracy.We show that our network can reduce pose estimation errors to 0.6 mm in translation and 0.4 degrees in rotation, from initial errors of 10 mm / 5 degrees if applied once, or of several cm / tens of degrees if applied iteratively. The network can generalize to similar objects, is robust against changing lighting conditions, and to partial occlusions (when used iteratively). The high accuracy achieved enables tackling low-tolerance assembly tasks downstream: using our network, an industrial robot can achieve 97.5% success rate on a VGAconnector insertion task without any force sensing mechanism.
如果你對本文感興趣,請點擊點擊閱讀原文下載完整文章,如想查看更多文章請關注【泡泡機器人SLAM】公眾號(paopaorobot_slam)。
百度網盤提取碼:cts5
歡迎來到泡泡論壇,這裡有大牛為你解答關於SLAM的任何疑惑。
有想問的問題,或者想刷帖回答問題,泡泡論壇歡迎你!
泡泡網站:www.paopaorobot.org
泡泡論壇:http://paopaorobot.org/bbs/
泡泡機器人SLAM的原創內容均由泡泡機器人的成員花費大量心血製作而成,希望大家珍惜我們的勞動成果,轉載請務必註明出自【泡泡機器人SLAM】微信公眾號,否則侵權必究!同時,我們也歡迎各位轉載到自己的朋友圈,讓更多的人能進入到SLAM這個領域中,讓我們共同為推進中國的SLAM事業而努力!
商業合作及轉載請聯繫liufuqiang_robot@hotmail.com