【泡泡點雲時空】RF2O平面雷射裡程計:一種基於測距流的方法

2021-02-09 泡泡機器人SLAM

泡泡點雲時空,帶你精讀點雲領域頂級會議文章

標題:Planar Odometry from a Radial Laser Scanner. A Range Flow-based Approach    

作者:Mariano Jaimez, Javier G. Monroy and Javier Gonzalez-Jimenez

來源:ICRA2016

編譯:于振洋

審核:zhiyong

歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,後臺留言申請授權

在本文中,我們提出了一種快速,精確的方法,可以從連續的距離掃描中估算雷射雷達的平面運動。對於每個掃描點,我們根據傳感器速度制定範圍流約束方程,並最小化所得幾何約束的魯棒函數以獲得運動估計。與傳統方法相反,此方法不進行相關性搜索,而是受稠密3D視覺測距法啟發,根據掃描梯度執行稠密掃描對齊。最小化問題通過一種從粗到精的方案來解決,以應對大位移,並且一種基於速度估計值的協方差平滑濾波器用於處理無約束場景(例如走廊)中的不確定性。通過仿真和真實實驗,我們比較了該方法與兩個著名的掃描匹配器和裡程計。定量和定性結果都證明了我們方法的優越性能,其極低的計算成本(單個CPU內核上為0.9毫秒),使其非常適合那些需要平面測距的機器人應用。為此,我們還提供了代碼,以便機器人社區可以從中受益。

視覺配準方法通常分為特徵點法和直接法(光流)兩種,而點雲匹配法大多是類似特徵點法的ICP、GICP等方法,而沒有利用點雲梯度的信息。本文受光流法的啟發,提出了測距流(range flow)的方法,並利用速度估計值的方法,提高了在無約束場景下的精度

設R(t, α)為掃描函數,其中 t 代表時間, α為掃描點的坐標,圖1中掃描點 P 在雷射雷達的坐標下極坐標為 P(r, θ),其掃描點坐標表示如下,其中FOV為雷射雷達的掃描角度,N為雷射雷達的掃描點數

P'為連續兩次掃描間隔時間 Δt 後的掃描點。假設 R 可導,則在第二次掃描的任意點的掃描函數可通過泰勒展開表示為

捨棄掉高階項,則當掃描範圍和點的掃描坐標在 [t, t+Δt] 內改變時,掃描函數的梯度近似為

為了表示所有掃描範圍內點的速度,將上述速度(r, θ)改寫雷射雷達的笛卡爾坐標系下 (x,y)

最後假設環境為靜態的剛體,則所有掃描點的運動均由雷射雷達自身的運動引起,所以雷射雷達的速度和掃描點的速度大小相同,方向相反

將每個掃描點的角度和坐標帶入上式,即可以求解出雷射雷達的速度

由於雷射雷達的測量噪聲和線性估計引入的誤差,上一步中求解出的速度值誤差會較大,因此將掃描範圍內所有的點都帶入計算估計雷射雷達的速度並對結果進行優化(與視覺裡程計的後端優化類似)。進行優化要先定義殘差,在一個速度下掃描範圍內的每個點,定義集幾何殘差如下

為了較好地處理離群點(比如環境中的運動物體),這裡採用更加魯棒的 Cauchy M-estimator 核函數代替2範數,並且在每次迭代後會重新計算一次權重如下

為了加快收斂速度並減小掃描函數不可微的點引起的誤差,採用一種「預先計算權重」的方法。首先為了減小使線性化的誤差,將推導過程中的式子保留到2階項:

這樣做可以使系統更快收斂並減小線性化估計對結果產生的誤差

作者提出了一種新穎的名為RF2O的方法,通過在連續掃描對上施加測距流約束方程來估計雷射雷達的平面運動。廣泛的實驗證明了我們的方法的準確性,並且在不同的場景和幀頻下與PL-ICP,Polar Scan Matching 和標準車輪測距法進行了比較。結果表明,RF2O為平移和旋轉提供了最準確的估計,除了非靜態環境(PL-ICP略勝一籌)。運行時間僅為1毫秒,幾乎可以在不增加計算成本的情況下輕鬆估計平面運動,這使得該方法對許多對計算有嚴格要求並且需要實時性能的機器人應用具有吸引力。

本文受光流法的啟發,提出了測距流(range flow)的方法,並且取得了很好的跟蹤精度,為雷射雷達的匹配以及航跡推算提供了一種全新的思路,可以好好地借鑑一下。

In this paper we present a fast and precise methodto estimate the planar motion of a lidar from consecutiverange scans. For every scanned point we formulate the rangeflow constraint equation in terms of the sensor velocity, andminimize a robust function of the resulting geometric constraints to obtain the motion estimate. Conversely to traditionalapproaches, this method does not search for correspondencesbut performs dense scan alignment based on the scan gradients,in the fashion of dense 3D visual odometry. The minimizationproblem is solved in a coarse-to-fine scheme to cope with largedisplacements, and a smooth filter based on the covariance ofthe estimate is employed to handle uncertainty in unconstraintscenarios (e.g. corridors). Simulated and real experiments havebeen performed to compare our approach with two prominentscan matchers and with wheel odometry. Quantitative andqualitative results demonstrate the superior performance ofour approach which, along with its very low computationalcost (0.9 milliseconds on a single CPU core), makes it suitablefor those robotic applications that require planar odometry.For this purpose, we also provide the code so that the roboticscommunity can benefit from it

如果你對本文感興趣,想要下載完整文章進行閱讀,可以關注【泡泡機器人SLAM】公眾號。

歡迎來到泡泡論壇,這裡有大牛為你解答關於SLAM的任何疑惑。

有想問的問題,或者想刷帖回答問題,泡泡論壇歡迎你!

泡泡網站:www.paopaorobot.org

泡泡論壇:http://paopaorobot.org/bbs/

泡泡機器人SLAM的原創內容均由泡泡機器人的成員花費大量心血製作而成,希望大家珍惜我們的勞動成果,轉載請務必註明出自【泡泡機器人SLAM】微信公眾號,否則侵權必究!同時,我們也歡迎各位轉載到自己的朋友圈,讓更多的人能進入到SLAM這個領域中,讓我們共同為推進中國的SLAM事業而努力!

泡泡機器人SLAM的原創內容均由泡泡機器人的成員花費大量心血製作而成,希望大家珍惜我們的勞動成果,轉載請務必註明出自【泡泡機器人SLAM】微信公眾號,否則侵權必究!同時,我們也歡迎各位轉載到自己的朋友圈,讓更多的人能進入到SLAM這個領域中,讓我們共同為推進中國的SLAM事業而努力!

商業合作及轉載請聯繫paopaorobot@163.com

相關焦點

  • 【泡泡點雲時空】雷射雷達輔助的運動恢復結構
    泡泡點雲時空,帶你精讀點雲領域頂級會議文章標題:LiDAR Enhanced Structure-from-Motion作者:Weikun Zhen Yaoyu Hu Huai Yu Sebastian Scherer來源:ICRA 2020編譯:二帥審核:佳俊歡迎個人轉發朋友圈;其他機構或自媒體如需轉載
  • 【泡泡點雲時空】用於閉環檢測的LiDAR Iris
    泡泡點雲時空,帶你精讀點雲領域頂級會議文章標題:LiDAR Iris for Loop-Closure Detection作者:Ying Wang, Zezhou Sun, Jian Yang, and Hui Kong來源:IEEE International Conference on Intelligent Robotics and
  • 【泡泡點雲時空】基於移動平臺的雷射雷達點雲投影到相機圖像上的不確定性估計
    攝像頭和雷射雷達傳感器的融合可獲取精確的範圍信息,該信息可以投影到可視圖像數據上。這樣可以對場景有一個高層次的認識,可以用來啟用基於上下文的算法,例如避免碰撞更好的導航。組合這些傳感器時的主要挑戰是將數據對齊到一個公共域中。由於照相機的內部校準中的誤差,照相機與雷射雷達之間的外部校準以及平臺運動導致的誤差,因此這可能很困難。在本文中,我們研究了為雷射雷達傳感器提供運動校正所需的算法。
  • 【泡泡點雲時空】保護隱私的 Structure-from-Motion (SfM)
    泡泡點雲時空,帶你精讀點雲領域頂級會議文章標題:Privacy Preserving Structure-from-Motion作者:Marcel Geppert, Viktor Larsson, Pablo Speciale, Johannes L.
  • 【泡泡圖靈智庫】SDRSAC:基於半正定隨機採樣方法的無須點對應的魯邦點雲估計(無音頻)
    本文提出了一種新的用於點雲配準的隨機採樣算法,該方法無須已知點之間的對應關係。當前絕大多數的點雲配準算法,需要首先通過提取不變特徵來預估一個點的匹配子集。然而,在點雲噪聲很大,或者存在汙染的情況下,不變特徵通常不可靠。在該情形下,直接在輸入點雲上進行處理的方法更加有效。然而,在沒有預估的點對應的情況下,以往的隨機採樣的方法需要大量的採樣次數才能達到滿意的結果。
  • 【泡泡圖靈智庫】稀疏雷射點雲中地面檢測的提升
    與現有的基於高光束解析度的雷射雷達(如HDL-64)的工作不同,本文提出了一種可以應用在低光束解析度雷達(如VLP-16)採集的非常稀疏的點雲中的地面檢測方法。該方法基於RANSAC的平面擬合框架。在平面假設的內點驗證中添加了點間切線的約束,這一局部特徵的計算無需考慮雷射點光束之間的解析度。不完全平坦的平面需用多個(實際中為4個)平面區域進行擬合。
  • 【泡泡傳感器測評】雙目相機哪家強?泡泡和上交北鬥導航創新院帶你看
    對於雙目相機的深度估計性能的評價往往採用單個特徵點的測試評估或者基於標定板的測試評估,基於單個特徵點的測試評估存在著一定程度的片面性難以反映整張圖深度估計的性能,基於標定板的測試評估方法存在著場景單一的問題不能很好的表現實際使用情況下的深度估計性能。
  • 【泡泡一分鐘】LOL:在3D點雲地圖中僅使用雷射雷達的裡程計和定位
    Majdik來源:2020 IEEE International Conference on Robotics and Automation (ICRA)編譯:孫欽審核:柴毅,王靖淇這是泡泡一分鐘推送的第 619 篇文章,歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,後臺留言申請授權在本文中,我們解決了在城鎮環境中行駛的,配備雷射雷達的車輛的裡程計和定位
  • 【泡泡一分鐘】利用點和線特徵的雷射雷達單目視覺裡程計
    694 篇文章,歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,後臺留言申請授權我們介紹了一種新的雷射雷達-單目視覺裡程計方法,利用點和線的特點。與以前的基於點的雷射雷達視覺裡程計相比,我們的方法通過在姿態估計中引入點和線特徵來利用更多的環境結構信息。我們為點和線深度提取提供了一種穩健的方法,並將提取的深度公式化為點-線束調整的先驗因子。該方法大大降低了特徵的三維模糊度,從而提高了姿態估計精度。此外,我們還提供了一種純視覺的運動跟蹤方法和一種新穎的比例校正方案,從而實現了一個高效、高精度的三維視覺裡程計系統。
  • 【泡泡圖靈智庫】LIC-Fusion: 雷射雷達-慣導-相機裡程計
    LiDAR-inertial-camera fusion (LIC-Fusion)的多傳感器緊耦合算法,該算法高效地融合了IMU量測、稀疏的視覺特徵和提取的雷射雷達點。其關鍵貢獻在於,在一個高效的基於MSCKF框架下,對雷射雷達點雲中探測和跟蹤到的稀疏的角/面特徵點、稀疏的視覺特徵觀測和IMU量測的多模態傳感器最優(取決於線性誤差)融合。我們完成了包括室內和室外環境的密集的實驗,表明所提出的 LIC-Fusion 在估計精度和在劇烈運動下的魯棒性上,較現有最先進的視覺裡程計(VIO)和雷射雷達裡程計方法表現更好。    1.
  • 學術交流 | 全波形星載雷射測距誤差抑制的滑動窗口高斯擬合算法
    星載雷射測距精度是影響雷射測高儀幾何檢校與處理精度的主要來源之一。針對由全波形星載雷射模擬信號經數位化處理後的量化誤差帶來的雷射測距提取精度不高、穩定性低的問題,本文提出一種全波形星載雷射測距誤差抑制的滑動窗口高斯擬合算法。該方法利用滑動窗口剔除波峰附近似噪聲點,並基於高斯曲線擬合優化波形峰值,從而精化雷射測距值。
  • 【泡泡圖靈智庫】基於貪心特徵選取的高效雷射雷達SLAM
    Greedy-Based Feature Selection for Efficient LiDAR SLAM基於貪心特徵選取的高效雷射雷達SLAM論文連結:https://arxiv.org/pdf/2103.13090.pdf
  • 【泡泡一分鐘】用於運動失真校正的基於超採樣預積分測量的三維雷射雷達IMU校準
    來源:2018 IEEE International Conference on Robotics and Automation (ICRA) May 21-25, 2018, Brisbane, Australia編譯:張寧審核:顏青松,陳世浪歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,後臺留言申請授權在本文中,我們提出了一個概率框架來恢復雷射雷達
  • 雷射測距原理
    雷射具有很好的單色性和方向性,因此與其他光電測距設備相比,雷射測距設備不僅可以日夜作業,還能提高測距精度。目前主流的雷射測距的方法大致有兩類:飛行時間(TOF)測距和非飛行時間測距。其中飛行時間測距中還包括脈衝式和相位式雷射測距兩種方式,而非飛行時間測距主要是三角雷射測距。
  • 【泡泡圖靈智庫】面向高性能的固態雷射-慣性裡程計與建圖
    在前端,基於特徵的輕量級雷射裡程計提供快速的運動估計用於自適應選擇關鍵幀。在後端,通過邊緣化執行基於關鍵幀滑動窗口的分層優化,用於直接融合慣性測量數據和雷射測量數據。針對新發布的固態雷射雷達Livox  Horizon,提出了一種新的特徵提取方法,用於在預處理過程中處理其不規則掃描模式。
  • 【泡泡圖靈智庫】信息驅動的直接RGB-D裡程計
    本文提出了一種基於資訊理論方法的直接RGB-D裡程計。通常情況下,視覺裡程計/SLAM跟蹤數百個點,在高配臺式PC機上實現實時性能。減少其計算佔用空間將有助於在小型機器人和AR/VR眼鏡等低端平臺上實現裡程計和SLAM。我們的實驗結果表明,本文的新的基於信息的選擇原則使得跟蹤點的數量減少一個數量級(減少到只有24個),達到了與當前技術水平類似的精度(有時優於它),同時減少了10倍的計算需求。
  • 一文了解雷射測距
    隨著工業自動化和機器視覺的快速發展,在檢測、測量和控制等諸多應用中,雷射測距已被證明為一種非常重要的非接觸式檢測手段。脈衝式雷射測距——直接ToF法脈衝式雷射測距是雷射技術最早應用於測繪領域中的一種測距方法,其通過直接測量發射光與接收光脈衝之間的時間間隔,獲取目標距離的信息,如圖2。測量距離可表示為:
  • 綜述-三維點雲深度學習技術
    三維數據通常可以用不同的格式表示,包括深度圖像、點雲、網格和體積網格。點雲表示作為一種常用的表示格式,在三維空間中保留了原始的幾何信息,而不需要進行任何離散化。因此,它是許多場景理解相關應用的首選表示,如自主駕駛和機器人技術。近年來,深度學習技術已成為計算機視覺、語音識別、自然語言處理等領域的研究熱點。
  • 雷射測距新標杆:無測量死區的微腔孤子光頻梳測距
    其中,雷射探測與測距技術因具有較高的分辨力和優良的抗幹擾能力,一直廣受關注。隨著太空探索、工業製造等快速發展,對高性能雷射測距系統的需求也日益提升。然而,在現有的雷射測距方法中,無論是基於光纖光頻梳還是基於連續雷射都很難同時兼顧長距離、高精度、小體積以及快測量速度等指標。
  • 立體視覺+慣導+雷射雷達SLAM系統
    VIL-SLAM通過將緊密耦合的立體視覺慣性裡程計(VIO)與雷射雷達建圖和雷射雷達增強視覺環路閉合相結合來實現這一目標。該系統實時生成環閉合校正的6自由度雷射雷達姿態和接近實時的1cm體素稠密點雲。與最先進的雷射雷達方法相比,VIL-SLAM顯示了更高的精確度和魯棒性。VIL-SLAM系統圖。傳感器為灰色,模塊為綠色。箭頭指示消息在系統中的流動方式。