近日,經過數月的線上開發競賽後,Lifelong Robotic Vision 挑戰賽在澳門 IROS 2019 大會上成功舉辦,多位機器人領域大咖到場參與特邀報告環節和圓桌討論。
International Conference on Intelligent Robots and Systems (IROS) 是 IEEE/RSJ 組織的機器人和智能系統領域的旗艦會議,也是目前世界上規模最大的兩個機器人領域會議之一(另一個是 ICRA)。今年的 IROS 於 11 月 3 日在我國澳門舉辦,為期 5 天,吸引了來自世界各地的 4000 多名學者參加。
Lifelong SLAM Challenge 是本次 IROS 中 Lifelong Robotic Vision Competition Workshop 的兩個競賽之一 (另一個為 Lifelong Object Recognition Challenge), 旨在挑戰移動機器人在動態(Dynamic)和光照變化(Illuminate Variation)的環境中定位(Localization)和建圖(Mapping)的能力。
自 7 月份上線以來,比賽吸引了來自全球數十隻隊伍參與,其中不乏北大,上海交大等實力強悍的科研團隊加入賽事。九號機器人旗下的 Segway Robotics 團隊和上海交大決賽得分超過 90 分。在 11 月 4 日最終的角逐中,Segway Robotics 團隊以名為《Wheel Odometer-Enhanced VINS with Map-Based Localization》的方法得到本屆賽事冠軍。來自上海交通大學和北京郵電大學的團隊分獲第二和第三名。
數據集介紹
本次比賽使用的數據集 OpenLORIS-Scene[1] 是由賽事組織方英特爾中國研究院和清華大學使用 Intel RealSense 傳感器以及 Segway Robotics 團隊的 Segway 配送機器人 S1 採集的。
如圖,數據集提供的傳感器數據如下:
來自 RealSense D435i 的 RGB 圖像,深度(Depth)圖像 和 慣性傳感器(IMU)數據
來自 RealSense T265 的雙目魚眼(Fisheye)圖像和 IMU 數據
來自 S1 機器人的底盤裡程計(Odometer)的數據
OpenLORIS-Scene 數據集包含五個不同場景的數據,分別是超市(Market),咖啡店(Cafe),辦公室(Office),長廊(Corridor)以及家庭(Home)。為了儘可能評估機器人在現實世界(Real-World)中同時定位和建圖(SLAM)的能力。這五個場景都包含了不同時間段的多段數據。這些數據幾乎涵蓋了機器人在現實中運行的所面臨的所有挑戰:
1.視角變化(Viewpoint Changes)
來自 Office 數據集
2.場景改變(Environment Changes)
來自 Home 數據集
3.光照變化(Illumination Variation)
來自 Corridor 數據集
4.動態場景(Dynamic)和低光照(Low Illumination)
來自 Corridor 數據集
由於包含了以上真實世界中對機器人運行來說較為挑戰的情景,OpenLORIS-Scene 相較於目前 SLAM 領域常用的數據集如 KITTI,EuRoC 和 TUM Visual-Inertial Datasets 更關注於商業機器人在真實的工作環境中的表現。因此,該數據集對 SLAM 算法的穩健性以及適應性提出了很高的要求。
評測指標
本次賽事主要測評 SLAM 算法兩個另個重要指標:
1.正確定位率(Percentage of Correct Localization,簡稱 CR,佔 60% 權重):
SLAM 算法得到的機器人的 6 自由度位置姿態(6D Pose)與真值(Ground Truth,由組織方使用 Vicon 以及 2D 雷射雷達提供)之間的誤差小於某個閾值的個數佔所以軌跡點的百分比。此項指標的意義在於,評估機器人定位算法的準確性。
2.重定位的正確率(Re-localization Score,簡稱 RS,佔 40% 權重):
其中 t0 是 SLAM 算法首次正確重定位的時間,tmin 是數據開始的時間。如果機器人首次重定位的位置錯誤(ATE,Absolute Trajectory Error 大於某個閾值),此項得分為零。此項指標的意義在於,檢驗機器人重定位算法在已有環境中重新定位的能力,越早的正確定位,會得到的越高的分數。
最終的得分是這兩項成績的加權平均,總分為 100 分。
值得一提的是,賽事的組織方在該數據集上測試了目前較為流行(State of the Art)的開源 SLAM 算法,包括 ORB-SLAM[2], VINS-Mono[3] 以及 ElasticFusion[4] 等。這些算法在各個分段數據上表現尚可,如下圖。
但是,在需要在之前的數據中重新定位的情況下,這些算法的表現的就變得難以讓人滿意了。如下圖:
這些算法的總分均低於 50 分。這也既說明了本數據集的挑戰性,也說明了目前流行的開源算法不能滿足機器人在真實環境中運行的需求。
方法和評估
方法介紹
本屆賽事中,成績較好的隊伍多數採用目前現有的開源算法實現 SLAM 系統的前端(Front-End)和後端(Back-End)。為了應對上文中提到的真實環境中的挑戰,各支隊伍多採用基於深度學習的方法來提高 SLAM 算法重定位的性能。這也於近幾年 SLAM 領域的發展方向相一致。
Segway Robotics 團隊所使用的方法可以分為兩個模塊:
實時定位模塊(Real-Time Localization Module)
地圖管理模塊(Map Management Module)
其中實時定位模塊作為 SLAM 算法的前端,地圖管理模塊作為算法的後端。前端負責融合裡程計增強的 VIO(Wheel Odomter-Enhanced VIO)得到的位置姿態與基於地圖得到的位置姿態。同時,地圖管理模塊負責建立地圖 (Map Builder) 以及合併地圖 (Merge Map), 用以提高機器人重定位的信息。
其中,裡程計增強的 VIO 相較於傳統的 VIO(Visual Inertial Odometry)增加了輪子裡程計的約束。這個改進一方面可以抑制地面機器人在平面做運動中出現的可觀性(Observability)退化問題 [5],另一方面也可以使得機器人在低光照和無紋理的環境中運行,如下圖。
在系統中,我們使開發了基於深度學習方法的圖像檢索方法和特徵點提取和描述算法來提高 SLAM 算法對於光照變化和大視角變化的健壯性。
來自夜晚的 Corridor 圖像能夠與來自白天的圖像找到匹配
魯棒的(Robust)特徵點提取算法可以提高在大視角變化場景中的穩健性
評估
本方法在 OpenLORIS-Scene 數據集上評估的結果如下:
其中正確定位率得分為 94.6%,重定位分數為 93.4%,最終得分為 94.1%。
值得一提的是,Segway Robotics 團隊在開發該系統時一直在使用自己的 Segway DRIVE benchmark[6] 來測評自己的方法。
該 benchmark 包含 Segway Robotics 團隊在開發中積累的大量的真實商用場景的數據。
如圖,其中包含的數據大多在時間上橫跨數月。
在 Segway DRIVE benchmark 的測評中,Segway Robotics 團隊的 SLAM 系統在時隔數月之後的地圖中依然可以實現可觀的重定位性能。
總結
Segway Robotics 的算法框架融合的多傳感器信息,包括魚眼相機,慣性測量器件以及底盤編碼器,使定位算法更加穩定。同時,通過不斷的優化地圖和合併地圖增加視覺感知的範圍,提高機器人的重新定位 (Relocalization) 的概率。通過這次比賽,驗證了算法的實時定位的性能,以及在大規模室內環境中建立一致地圖的能力。
參考文獻
[1] Xuesong Shi and Dongjiang Li and Pengpeng Zhao , et al. Are We Ready for Service Robots? The OpenLORIS-Scene Datasets for Lifelong SLAM[J]. arXiv preprint arXiv:1911.05603, 2019.
[2]Mur-Artal R, Tardós J D. Orb-slam2: An open-source slam system for monocular, stereo, and rgb-d cameras[J]. IEEE Transactions on Robotics, 2017, 33(5): 1255-1262.
[3] Qin T, Li P, Shen S. Vins-mono: A robust and versatile monocular visual-inertial state estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004-1020.
[4] Whelan T, Leutenegger S, Salas-Moreno R, et al. ElasticFusion: Dense SLAM without a pose graph[C]. Robotics: Science and Systems, 2015.
[5]Wu K J, Guo C X, Georgiou G, et al. Vins on wheels[C]//2017 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2017: 5155-5162.
[6]Huai J, Qin Y, Pang F, et al. Segway DRIVE Benchmark: Place Recognition and SLAM Data Collected by A Fleet of Delivery Robots[J]. arXiv preprint arXiv:1907.03424, 2019.
雷鋒網(公眾號:雷鋒網)雷鋒網雷鋒網
雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。