移動測量中的雷射SLAM

2021-02-26 智車科技

本文整理自王程老師在第二屆SLAM技術論壇中《移動測量中的雷射SLAM》的報告。

本文來源:深藍學院

王程,廈門大學信息學院教授,IET Fellow,福建省智慧城市感知與計算重點實驗室的執行主任,國際攝影測量與遙感學會的多傳感器集成與融合工作組的主席。研究興趣包括三維視覺,雷射雷達點雲處理,空間大數據分析,遙感圖像分析,移動測量。王老師發表論文200餘篇,包括CVPR,AAAI,VR,ISPRS JPRS,TRGS等高水平會議和期刊,是IEEE GRSL的編委,作為大會主席和組委會主席組織過CVPS2012,MMT-SS2015, ChinaLiDAR2018等多個國際學術會議和學術交流活動。

01 移動雷射掃描簡介


雷射掃描經歷了從一維到二維再到三維的發展過程,大家都知道雷射測距的原理,在街上經常能看到測繪單點無反射的全站儀,其中雷射測距的裝置就是一維的雷射雷達(LiDAR)。實際上一個單點也叫做LiDAR;如果把這條雷射掃起來,就可以得到一個二維的剖面,例如一些用於工業界避障用的雷射雷達;如果不斷在一個方面進行360度進行環掃,同時把環掃的剖面進行旋轉,就能得到環境中一個三維的表面模型,這就形成了三維的雷射掃描。

如果希望獲得更大範圍的三維建模,那就需要讓雷射雷達動起來。

三維雷射雷達可以放在不同的移動平臺上,例如手持平臺、車載平臺、機載平臺、船載的平臺和背包,除此之外,現在衛星平臺上面也已經開始嘗試用雷射雷達,但是目前衛星上還沒有辦法進行表面大規模的成像。

上述統稱叫做移動測量或者Mobile Mapping,因為它們使用了雷射掃描,所以又稱mobile laser scanning(簡稱MLS)。

雷射掃描獲得的一些典型場景

用於測圖的移動雷射掃描系統,其傳感器一般分成兩大類:

一類是位置和方向估算,例如IMU(慣性測量單元)、GNSS(全球導航衛星系統)、DMI。IMU一般是必不可少的,只是在不同場景下使用不同等級的IMU,如果控制成本就用比較便宜的MEMS IMU,高精度場景中可能要用幾十萬一臺的戰術級甚至戰略級IMU,比如用於飛彈或者洲際飛彈上;GNSS包括GPS和北鬥,在開放的空間下GNSS顯得非常重要,因為它能夠通過差分得到近乎實時全球定位2釐米左右的定位精度;DMI是指從車的輪轂中心處接出一條線做碼盤上的測量,接到車載的碼錶上,當然也可以外接,接入到整個組合導航系統。另一類是環境地圖數據的收集和融合,主要是相機和雷射掃描儀。目前,為了能夠覆蓋周邊環境比較大的範圍,一般都使用多個相機;雷射雷達一般要配置兩個單線的雷射掃描,形成所謂butterfly的模式,該模式下掃一棟四方的樓能夠掃到三面,如果只有一條單線只能掃到兩面。所以一般在測繪級的應用上雷射雷達會採用兩個。移動雷射掃描系統獲得的點云為什麼能夠得到全球的定位坐標呢?原理如下圖所示:車上有一個組合導航系統,這個組合導航系統從衛星定位能夠獲得比較高頻率、高精度的定位信息,同時IMU提供了比較精確的方向,IMU跟相機或雷射雷達做了系統標定。由雷射雷達打一束光到P點,得到P點和雷達之間的相對坐標,同時因為雷射雷達與IMU有系統標定,所以可以計算P點在全球定位坐標裡的位置。但該原理並不適用於所有環境,比如不能使用GNSS的環境(城市峽谷、隧道裡、室內、水下等)。除此之外,林業測量領域面臨同樣的問題,在山上使用GPS的精度和樹林的茂密程度有關,在樹林下使用GPS的誤差能夠達到50米,最多能夠達到300米;300米意味著在福建就在另外一個山頭上,其實樹林下是非常典型的GNSS Denial環境。在GNSS Denial環境下,一般的傳感器不再可靠,可選的替代方案有基於相機或者LiDAR SLAM,本文將重點介紹LiDAR SLAM,在此之前,先給大家簡單介紹一下使用SLAM (Simultaneous Localization And Mapping)的原因。02 多線雷射雷達SLAM


SLAM是機器人構建環境地圖並同時使用該地圖計算自身位置的過程。地圖可以為人或機器提供路徑規劃信息或直觀的可視化效果。像掃地機器人這一類2D的LiDAR SLAM一般是單線雷射掃描,得到一個二維的grid map,而三維雷射掃描主要用多線雷射掃描,得到三維點雲的模型。下圖是常見的多光束雷射掃描儀( Multi beam LiDAR scanner ),在早期Google的無人車以及諸多國產無人駕駛車上都可看到。其中,左圖為64線的雷射掃描儀,中間黑窟窿是車或者是傳感器架所在的位置,當前這一幀的數據是一圈一圈地展開。實際上,在傳感器端幾何模型為:中間一個軸,64個beam圍繞該軸在旋轉,每一個beam朝著不同方向,右圖只展示了16線的模型。目前常用雷射雷達為旋轉式的LiDAR scanner,隨著無人駕駛不斷發展,已經有多家廠商在生產雷射雷達傳感器,例如鐳神、禾賽等。其中一個很明顯的趨勢是前視的雷射雷達。上圖中的傳感器模型是旋轉式360度的,作為人類駕駛者在開車的時候眼睛是不會一圈一圈向後看的,可能偶爾看一下後視鏡,但主要是向前看。在無人駕駛這個領域的應用,向後掃描的點有些浪費,因此前視的雷射雷達是其發展的方向之一,最後的形態可能會像匣子一樣,前面的窗是雷射雷達多線向前掃描,類似於RGBD,但是它的掃描距離一般都要超過150米才能達到無人駕駛的標準,而且在這樣的距離要求下達到10釐米到幾十米的解析度。市場預期多線LiDAR scanner發展會非常迅速,預計今年多線雷射掃描儀的市場總量會呈一個指數級的快速增長。有人預測在每一輛車大燈裡都應該安裝前視的雷射雷達,從這個角度考慮,全球每年可能有100萬臺的出貨量。在掃描距離上能夠達到10公分到20公分的空間解析度。目前國際上的benchmark,第一個是KITTI,含有比較豐富的原始數據以及標定結果,包括相機、64線以及高等級GPS/IMU的組合,涉及範圍和物體主要包括城區環境,還有一些居民地、高速公路和校園的環境。第二個常用的數據為Ford Campus Vision 和LiDAR database,既有相機也有雷射雷達,獲取的數據特點與KITTI類似,但其周邊情況更加複雜一些。第三個數據集是RobotCar,有大概1000公裡的數據,其特點是在一環道上面反覆獲取,每周獲取兩次,一年的期間採集了較多數據,對於測試可重複的情況較為有用。第四個數據集是DBNet(drivers behavior net),由我們課題組於2018年推出,該數據集包括camera採集的前視圖像以及雷射雷達的數據,同時還記錄了操作者踩剎車和轉方向盤的角度。因為在駕駛車輛時,駕駛員與車輛互動的行為主要包含踩剎車、加油門、轉方向盤這三件事,將這些數據記錄下來,可以建立從drivers behavior到外界數據之間對應的數據集。目前DBNet數據集大概有1000公裡的數據,包括前視視頻、雷射雷達的點雲、GPS軌跡和drivers behavior,以及從總線裡面取出來的速度和轉速的情況。第五個數據集為MI3DMAP,數據採用Backpacked system採集得到,數據包含雷射雷達採集的原始點雲數據以及團隊做出來的SLAM數據,還包括相機採集的數據、MEMS IMU的結果等。此外,Backpacked system上有多個手機,便於獲得WIFI 與藍牙的數據,這些數據可以為後續做基於電磁指紋的室內定位提供ground truth。
03 LiDAR SLAM介紹


LiDAR SLAM是工程性較強的問題,研究者們提出了諸多方法,本文重點介紹LiDAR Odometry的相關算法。首先介紹一下SLAM的時間線,最早可以把主要論文分成四類:第一類是point-based即用點雲來做SLAM;第二類是feature-based,先提取出一些feature或者類似於feature的東西,用這些feature做匹配;第三類是learning-based;第四類是framework。point-based LiDAR Odometry方法中,ICP是非常傳統的方法,但到目前為止很多主流算法還是採用ICP的基本方案。在傳統ICP基礎上,還有從點到面(Point –to –Plane)的ICP方法。在基於點的LiDAR Odometry的基礎上,feature-based也是非常有效的一類方法,該類方法中比較經典的為LOAM方法,其後又發展出了V-LOAM,即在LOAM基礎上加了相機,相機跟LiDAR去結合。除了一些簡單Feature,我們在開放場景下可以將獨立物體切出來,我們稱之為Segment as Feature,較為經典的方法為SegMap框架。
04 基於學習的SLAM


深度學習在二維圖像中的應用取得了較大突破,但三維點雲深度學習框架實際上從2017年下半年逐漸發展起來,其中比較典型的算法是PointNet。目前,該方法已經成為點雲處理的基本步驟。看起來跟CNN很像,區別在於圖中紅框中的這樣一個結構,這個結構進來是N×3個點,這個N是什麼呢?比如說你有1024個點,或者是2048個點,N就是1024或者2048,為什麼是3呢?因為你有XYZ,這樣輸進來就是一堆點,這堆點它的順序沒關係,其實 PointNet的本質就是要把點雲順序這個維度上面的隨機去掉。接下來有一個MLP,多層感知的一個結構。對於每一個點它都做了64和64雙層感知,而且對每個點採用的網絡參數都是互相share,這樣XYZ的一個點經過這樣雙層感知變成了一個 64維長度的矢量,N×3變成了N×64,中間跨過了share MLP的這麼一個框架。它有多層,這樣整個框架的輸入是一個N×3的點,比如說1024個點或者2048個點,輸出是什麼呢? 是1024點或者2048個點得到的一個1024維的global feature description,而且這個description跟你輸入的點的順序無關,這也是PointNet標榜的一個主要性能。在此基礎上PointNet++ 把點雲用pointNet做了一個多層結構,這樣能夠擴大感知欲。pointCNN跟pointNet有很多相似之處,示意圖如下所示:這上面是圖像,圖像convolution的一個示意圖,底下是點雲,一個很小的點雲,10個點的點雲,就是所謂的X-convolution示意圖。其實建立點雲深度學習最關鍵的問題就是建立底層這樣一個類似於convolution的計算,這裡面將它稱為X-convolution。這個作法就是把每個點的信息向著臨近的逐點去投射,這個投射的過程是用了一個類似於convolution的卷積計算的方法,而且X-convolution可以做多層,比如說一開始是10個點,第一層X-convolution以後變成了五個主點,接下來再投可以變成兩個點,這樣多層做下去以後,大規模的點雲變成了一個點數很少,但是在每個點上有著多維特徵的這樣一個簡化描述,跟我們圖像上面的convolution非常相像。下面給大家介紹End-to-End,Video進來以後直接用深度學習網絡,裡面把每一張圖像通過一個CNN加上RNN,這樣前後兩幀關聯起來,輸出就是一個pose。在三維點雲裡面也有類似End-to-End的工作,比如下面這個是2019年CVPR上的一個工作,叫做Point Cloud Matching。這個工作它的特點首先在這裡面找到一些特徵點,這個特徵點是用別的一些特徵點提取方法來實現,對於每個特徵點上的特徵描述,先找到一個主軸投影方向,然後變成了一個類似於圖像的投影,接下來就是跟圖像很像的一個多層的類似CNN的處理方式,然後做兩邊的matching。下面介紹3Dfeat-Net,這個是2018年的工作,它是弱監督的工作,這裡邊採用正樣本、負樣本和中性樣本,上面的是正樣本,下面的是負樣本,中間的是中性樣本。有三個分支的孿生網絡,先進行特徵點的提取,但特徵點提取的時候有一個非常有意思的輸出,在這裡面不僅有所謂的feature descriptor,還有一個當地local feature的指向,這個指向應該說是個標準化的指向,為後續的匹配提供了一個很好的輸入,這個feature在後續的descriptor網絡裡面作為一個輸入進來,這樣對descriptor一致性有一個非常好的提高。前面介紹了從point based、feature based到Learning-based一些基本框架。接下來我介紹我們今年CVPR上的工作LO-Net,我們做這件事動機有三個:1.我們剛才說了,其實點雲的三維深度學習整個框架還不是很有效,不管從處理效率還是準確度上,還是跟基於圖像的描述方式有差距。2.雷射雷達它有一個特點,不同的傳感器,實際上每一支傳感器都有自己的一些激變,而且這些激變你要把它精確進行標定實際上是非常困難。因為SLAM它是在運動平臺做,在運動過程中雷射雷達掃描還是每秒10-30赫茲,它轉一圈是有時間的,在它轉一圈的時間裡面你在向前走, 如果原來是一個圓的話,你走得越快這個圓變得越扁,大家能想像到這個圓變得越扁。這應該是一個直線的牆,但是由於這樣的激變導致它是一個弧線,因此這樣的一些激變在不同品牌,甚至不同只的傳感器之間挺複雜的。我們希望把這一部分用深度學習跨過去,不要每一隻傳感器都要做特別的標定。3.像KITTI這樣的數據它更多的是在一些歐洲的城市裡面來做,它周邊的環境還是比較靜態,我這裡弄的比較誇張,採集的古城的數據。而我們真正使用SLAM的時候經常是這樣一個動態的環境,包括我們背著背包在屋子裡面走的時候,周邊也經常有人開門關門等等的運動。運動環境下LiDAR SLAM是非常重要的一個motivation。我們做的第一步工作,就像下圖展示的那樣,雖然是一個雷射雷達,掃出來是點雲,但是我們根據碼盤的讀數把它再投影回類似於一個圖像的東西,是一個很長條的圖像,如果使用的是64線的雷射雷達,得到的是一個64線高,大概2048寬的這麼一個類似於圖像的條帶。得到XYZ,同時還有回波強度以及距離,XYZ實際上可以反演出距離,但是因為這五個數據從雷射雷達可以直接讀出來,所以我們把它變成了五張圖像。這裡面不可避免有些點沒有反饋,所以有些點是需要你做標記。我們網絡情況下大概是下面這樣,採用雙分支,旁邊畫了兩個Mask,這個Mask就是為了防止把邊上的這些運動物體,讓它在訓練的時候對運動物體有所感知,訓練的時候一路這樣下來以後往Mask走,Mask要輸出的是一個運動物體的提取。但是訓練完了以後Mask這一步就不用了,唯一使用是encoder這個通道,把它share到用來做feature description,用feature來提取,這兩個feature提取完了以後使用一個全連接,輸直接輸出Odometry。這個方法它的特點是什麼呢?我們在這裡面考慮到了在特徵描述的時候對於運動物體的這樣一個描述,因此在真正做Odometry的時候能夠對周邊的運動物體有所感知,這樣通過多任務的方式能夠提高整個網絡在SLAM時候的性能。下面是LO-Net 和其他方法的一個對比。我們看到在KITTI這樣的數據,我們有不少能夠比LOAM要好。更明顯是在Ford數據上, Ford這樣的數據它周邊的運動物體會更多一些,我們的優勢也會更明顯一些。下面是Trajectory的結果,中間紅色這一條是結果。下面這個做的一個大範圍SLAM結果,這個範圍大概在幾百米,500-1000米這個距離上。這個是僅僅使用Mapping Results得到的結果,中間沒有用其他的,比如說GNSS,或者是camera其他一些傳感器,直接就是使用LiDAR的數據然後做的SLAM。

05 總結


基於SLAM的移動雷射掃描系統已經能夠為GNSS失效的環境服務。多任務能夠提升LiDAR SLAM能夠它的可靠性。

【歡迎大家提供行業新聞熱點,商業合作請聯繫:18562613430】


推薦閱讀


免責聲明:

凡本公眾號註明「來源:XXX(非智車科技)」的作品,均轉載自其它媒體,轉載目的在於傳遞和分享更多信息,並不代表本平臺贊同其觀點和對其真實性負責,版權歸原作者所有,如有侵權請聯繫我們刪除。 


相關焦點

  • 如何在移動機器人中部署Gmapping SLAM算法
    這裡有兩個關鍵詞:定位和地圖構建,也就是說機器人會在未知的環境中,一邊確定自己的位置,一邊去構建地圖,最後輸出類似這樣的地圖。簡而言之,SLAM地圖構建的過程就是用深度傳感器測量機器人和周圍環境的距離信息,從而完成對周邊環境的地圖構建,同時,機器人會對環境進行一致性檢查,檢測是否運動到已經構建過地圖的地方,最終完成地圖閉環,完成整個地圖。
  • 2D雷射SLAM算法匯總
    Hector slamHector slam對傳感器的要求比較高,它主要是利用高斯牛頓方法來解決scan-matching的問題。Hector slam無需使用裡程計,所以在不平坦區域實現建圖的空中無人機及地面小車具有運用的可行性,利用已經獲得的地圖對雷射束點陣進行優化,估計雷射點在地圖的表示,和佔據網絡的概率。
  • 新開源RadarSLAM: 不懼風雪雨霧夜的全天候大場景雷射SLAM!
    然而,slam算法在極端天氣下的魯棒性問題一直未得到解決。在本文中,作者提出了一種全天候,大場景下的雷達slam框架。通過全新的特徵匹配和概率點雲地圖實現了包括位姿估計、局部建圖、迴環檢測以及位姿圖優化一系列功能。作者在公開數據集和自己收集的數據集中進行了廣泛的實驗,結果表明了在各種惡劣天氣條件下,如黑夜、濃霧和大雪等天氣條件下。算法擁有良好的可靠性已經定位精度。
  • 我手寫了個SLAM算法(二)!
    針對my_slam_gmapping進行了如下三部分的改變(1)嵌入雷射雷達運動畸變去除到my_slam_gmapping中(2)對my_slam_gmapping的結構調整(2)地圖精度大幅提升,特別是走廊長度3、my_slam_gmapping說明3.1、my_slam_gmapping功能介紹my_slam_gmapping算法功能包除了圖片中劃掉的發布機器人姿態分布熵的topic和加入雷射雷達運動畸變去除模塊之外,其他功能還是gmapping算法一致。
  • 【泡泡一分鐘】用於運動失真校正的基於超採樣預積分測量的三維雷射雷達IMU校準
    我們提出了一個概率框架來恢復雷射雷達-IMU傳感系統的外部校準參數。與全局快門相機不同,雷射雷達不會拍攝環境的單個快照。相反,雷射雷達會收集一系列通常在掃描中分組的3D點。如果假設這些點在公共幀中表示,則當傳感器在環境中快速移動導致運動失真時,這成為問題。圖1  房間角落的雷射雷達點雲,有和沒有運動失真。我們提出的框架的基本思想是使用預積分而不是內插慣性測量來表徵每個雷射雷達掃描中的運動失真。
  • 測量雷射光束輪廓的儀器
    光束輪廓的強度分布是雷射分析中的一個重要參數,它將決定雷射束在其應用過程中的性能表現如何,在特定的設置之下,也將會決定整個雷射系統的性能
  • SLAM技術及其在測繪領域中的應用
    然而,航空測量對於地面的信息缺失較多,尤其是在三維重建中,建築物最底端的重建效果較差,因此,還需要以地面測繪系統重建的信息進行補充。地面移動測繪系統是指在移動載體平臺上集成多種傳感器,通過定位、定姿和成像等傳感器在移動狀態下自動採集各種定位定姿數據(GPS、INS)、影像數據和雷射掃描數據,並通過統一的地理參考和攝影測量解析處理,實現無控制的空間地理信息採集與建庫。
  • 中圖儀器:本土化雷射幹涉測量專家
    雷射幹涉測量,利用雷射作為長度基準,可對機械設備的位置精度(定位精度、重複定位精度等)、幾何精度(俯仰扭擺角度、直線度、垂直度等)進行精密測量,在雷射幹涉測量領域,雷射幹涉儀是代表性儀器設備,其可對數控工具機、實驗室基準、線性模組、自動化設備和三坐標的精度進行測量,在機械製造、航空航天、軍工、汽車船舶
  • 【學術論文】基於Cortex-A53平臺的雷射雷達SLAM實現
    自主移動機器人[1-3]是近幾年的研究熱點,要實現機器人的自主移動,關鍵是要實現SLAM[4-7](Simultaneous Localization and Mapping),也就是同時定位與地圖構建。    在移動機器人上實現SLAM目前有兩種主流的方法,一是基於相機的SLAM;二是基於雷射雷達[8]的SLAM。
  • SLAM基礎:相機與圖像
    盜圖一張,來自高博的《視覺slam十四講》這一小節我們介紹了相機模型和各個坐標系的轉換關係。盜圖一張,來自高博的《視覺slam十四講》RGB-D 相機模型RGB-D 相機可以主動測量每個像素的深度。目前的RGB-D 相機按原理可以分為兩大類:通過紅外結構光 來測量像素深度,如Kinect 1;通過飛行時間 (time-of-flight) 來測量像素深度,如Kinect 2.
  • Seabed為移動測繪系統選擇Velodyne雷射雷達
    Seabed移動測繪系統配備Velodyne Puck™雷射雷達傳感器,支持海洋環境保護和可持續發展。
  • 雷射傳感器應用於距離測量
    雷射傳感器有幾種配置,其中一些檢測存在,而其他則測量距離。接近式雷射傳感器(也稱為雷射光電傳感器)通常用於檢測零件的存在。
  • SLAM原理基礎
    機器人想要在未知的環境中實現自主移動、自主避障就必須知道自己在哪「定位」,環境中有什麼障礙物、周圍是什麼情況「建圖」等。
  • 攝影測量和雷射雷達測量哪個好?答案在這
    從拍攝的影像中提取研究對象的信息,測定目標物的形狀、大小、空間位置、性質和相互作用,進而形成3D繪圖。解析攝影測量的進一步發展是數字攝影測量。▲圖 | 網絡攝影測量從拍攝的影像中提取研究對象的信息,雷射雷達通過雷射脈衝發射和接收的時間差獲取目標三維坐標點雲,但二者的區別不只在於數據獲取的方式不同,還包括其成本、精度、使用環境等。
  • 雷射測量為什麼用自相關儀
    依據麥可遜幹涉儀原理設計的自相關儀是目前測量超快雷射最方便,最快捷,最準確的測量儀器。將脈衝雷射用50/50的分光片分成兩束,利用鏡片組在一束光裡引入延遲,然後將兩束光合併,讓一束雷射對另外一束光進行掃描,使得合併後的雷射通過非線性晶體產生非線性效應,或者直接採用TPA吸收測量,再由示波器進行接收,這樣就可以得到雷射脈衝的脈寬信息。再此,對於探測器有兩類:1、非線性晶體加探測器;2、雙光子吸收二極體TPA。
  • CamVox: 一種低成本、高精度的雷射雷達輔助視覺SLAM系統
    將雷射雷達與基於相機的同步定位和建圖(SLAM)相結合是提高整體精度的有效方法,尤其是在大規模室外場景下.低成本雷射雷達(如Livox雷射雷達)的最新發展使我們能夠以更低的預算和更高的性能探索這種SLAM系統.在本文中,我們通過探索Livox雷射雷達的獨特特徵,將Livox雷射雷達應用到視覺SLAM(ORBSLAM2)中,提出了CamVox.基於Livox雷射雷達的非重複特性
  • TartanAir:一個突破視覺SLAM極限的數據集
    作者提出的TartanAir數據集是第一個試圖解決slam相關問題的數據集。在這項工作中,此數據集的一個焦點是有變化的光照條件、低光照、惡劣天氣和動態對象的挑戰性環境。最先進的SLAM算法在作者的數據集中很難跟蹤相機的位姿,並且經常在具有挑戰性的序列中迷失。
  • 精巧設計的MEMS簧上微鏡,實現雷射功率的實時測量
    測量雷射的功率是一項挑戰。我們可以將雷射能量匯聚到傳感器上,並測量由此產生的溫升,或用已知部分光束的功率來測算被測雷射。
  • 科普 | 什麼是SLAM?
    本文將重點介紹其在NVIDIA Isaac中的機器人應用。就像人類一樣,機器人不能總是依賴GPS,尤其是當它們在室內運行時。況且,GPS在室外如果達不到幾英寸的精度,機器人也不能安全地移動。相反,它們能夠依靠SLAM(simultaneous localization and mapping,即時定位與地圖構建)來觀察和繪製周圍環境。使用SLAM,機器人可以隨時構建自己的地圖。
  • 立體視覺+慣導+雷射雷達SLAM系統
    VIL-SLAM通過將緊密耦合的立體視覺慣性裡程計(VIO)與雷射雷達建圖和雷射雷達增強視覺環路閉合相結合來實現這一目標。該系統實時生成環閉合校正的6自由度雷射雷達姿態和接近實時的1cm體素稠密點雲。與最先進的雷射雷達方法相比,VIL-SLAM顯示了更高的精確度和魯棒性。VIL-SLAM系統圖。傳感器為灰色,模塊為綠色。箭頭指示消息在系統中的流動方式。