SLAM的動態地圖和語義問題

2020-12-11 騰訊網

點「計算機視覺life」關注,置頂更快接收消息!

本文原載於知乎自動駕駛的挑戰和發展專欄,作者為奇點汽車美研中心首席科學家兼總裁黃浴,計算機視覺life非常榮幸取得黃先生授權轉載。

https://zhuanlan.zhihu.com/p/58213757

https://zhuanlan.zhihu.com/p/58213848

上篇

近年來動態地圖和語義地圖好像在SLAM領域比較熱,動態物體一直是個敏感的問題。當年計算機視覺唯一的工業落地場景「視覺監控」也在這個問題費了腦筋,比如我搬個凳子到新位置,然後就走了,系統是不是要自動更新背景呢?

以前說過SFM和SLAM的稱呼,計算機視覺的同行多半說SFM,而機器人的行業流行說SLAM,到底區別在哪裡?有說SFM是假設背景不動,那麼outlier是什麼?當年做IBR(image-based rendering)的時候,以panorama view為例,也是假設場景物體不動,可總是有不靜止的物體,比如水,比如樹葉,甚至不配合的人們走動,會產生鬼影嗎?結果也提出了一堆的解決方法。SFM和MVG(multiple view geometry)緊密相關吧,都面臨計算機視覺的共同問題,動態環境是迴避不了的。

景物動態部分不一定是object,或者不一定能得到object,所以不一定是語義的。語義地圖不一定就是動態的,所以語義地圖和動態地圖是有重疊的,不過最近深度學習的發展比如語義分割,目標檢測和跟蹤等等的確使二者漸漸走在了一起。在人的眼中,一切都是語義的存在,儘管對某些部分認識不夠。

這裡我還是把SLAM動態地圖和語義SLAM分開,主要是文章太多。

先列個題目,動態地圖放在上部分,而語義地圖放下部分。

先推薦一篇ACM Computing Survey發表於2018年2月的綜述文章「Visual SLAM and Structure from Motion in Dynamic Environments: A Survey「,它對動態環境的分析可以參考一下。

討論的方法基本分三大類:一定位和重建為主,二動態目標分割和跟蹤為主,三運動分割與重建聯合估計的方法。

下圖給出了各種方法之間的聯繫:

第一類 「A)Robust Visual SLAM」,下圖給出框圖結構:

第二類 「B)Dynamic Object Segmentation and 3D Tracking「 ,同樣的,其框架圖如下:

第三類 「C)Joint Motion Segmentation and Reconstruction「,其特性見下圖:

在這三類方法中都有深度學習的部分。

下面選一些論文作為參考(註:次序沒有按時間排列)。

1.Simultaneous Localization and Mapping with Detection and Tracking of Moving Objects

看上面的系統流程圖,典型的方法:運動分割,運動目標檢測和跟蹤,靜態目標和靜態地圖。

2.Simultaneous Localization and Mapping with Moving Object Tracking in 3D Range Data

如上面框圖所示,特點:採用occupancy grid maps,因為傳感器是雷射雷達,可以採用ICP算法定位,地面估計去除在先,Mean Shift做聚類得到目標檢測,Probability Hypothesis Density (PHD) 做多目標跟蹤。

3.Online Localization and Mapping with Moving Object Tracking in Dynamic Outdoor Environments

採用雷射雷達數據,基於incremental scan matching方法定位,不受環境小運動的影響。

跟上一個文章一樣採用occupancy map,環境地圖步進更新,基於此檢測運動目標,而目標跟蹤基於Global NN算法。

4.SLAM method: reconstruction and modeling of environ. with moving objects using an RGBD camera

採用Kinect深度傳感器,見上圖,和一般SLAM比較,比較容易檢測出運動目標(室內深度層次少)。

5.Generic NDT mapping in dynamic environments and its application for lifelong SLAM

首先,採用Hybrid Normal Distribution Transform (NDT) occupancy maps,如上圖。

其次,系統可以檢測跟蹤運動目標,而graph-based SLAM能夠實現lifelong SLAM。

6 RGB-D SLAM in Dynamic Environments using Static Point Weighting

如圖介紹,其特點:還是RGB image加深度數據,提出depth edge 做visual odometry, 而static weighting 是為了對付運動物體。Intensity Assisted ICP (IAICP) 是改進ICP做定位的算法。

7.EVO: A Geometric Approach to Event-Based 6-DOF Parallel Tracking and Mapping in Real-time

上圖為算法流程圖。EVO = Event-based Visual Odometry,就是用event cameras (類似Dynamic Vision Sensor)做運動跟蹤,上圖框架像PTAM。下面兩個圖是介紹Mapping方法EMVS:

註:參考方法 EMVS = Event-based Multi-View Stereo,DSI = Disparity Space Image。

8.SLAM in a Dynamic Large Outdoor Environment using a Laser Scanner

上圖SLAM,其中模塊A的細節在紅色圓圈裡。其特點:還是運動目標檢測和跟蹤;採用GPS診斷pose誤差,實現全局精準。

9.Realtime Multibody Visual SLAM with a Smoothly Moving Monocular Camera

簡單示意圖如上,其特點:Bearing only Tracking (BOT) 基於particle filter,運動相機做motion segmentation保證靜態景物3-D重建。

10.Localization in highly dynamic environments using dual-timescale NDT-MCL

Normal Distributions Transform (NDT)

Monte Carlo Localization (MCL)

MCL是基於particle filter的方法,地圖採用Occupancy maps模式,這樣NDT做定位。

MCL分三步:

1. prediction

2. update

3. resampling.

下面是整個算法的偽代碼:

11.SLAM With Dynamic Targets via Single-Cluster PHD Filtering

算法核心是particle/Gaussian mixture,single- cluster process是指feature-based SLAM,其中車輛運動是主,而特徵運動為附。下面是四個算法的概略:

12.Exploiting Rigid Body Motion for SLAM in Dynamic Environments

基於factor graph處理SLAM的動態物體的運動幹擾。下面三個圖都是SLAM的factor graph。

下圖是特徵提取和跟蹤的結果例子:

13.Histogram of Oriented Cameras - A New Descriptor for Visual SLAM in Dynamic Environments

提出一個3-D描述子Histogram of Oriented Cameras (HOC) ,如下圖:

下圖是SLAM框架:雙目視覺,關鍵在地圖更新環部分。

14.Event-based 3D SLAM with a depth-augmented dynamic vision sensor

採用event camera,即DVS(dynamic vision sensor)處理動態環境。系統展示圖如下:

這裡DVS和RGB-D深度傳感器進行融合做定位。

15.Simultaneous Localisation and Mapping in Dynamic Environments (SLAMIDE) with Reversible Data Association

採用廣義EM(expectation maximisation)算法處理動態環境下的SLAM,求解的問題定義在一個Bayesian Network框架,如下圖:採用sliding window SLAM而不是EKF方法。

加了Reversible Data Association處理動態目標,如下圖:實現Data Association可以通過NN或者joint compatibility branch and bound (JCBB) 算法。

其中的Bayesian Network就是HMM實現,如下圖SLAMIDE:

16.CoSLAM: Collaborative Visual SLAM in Dynamic Environments

採用多個獨立攝像頭協同工作的SLAM系統,如下圖:

關於地圖中的point classification,分類類型即『static』, 『dynamic』, 『false』 或者 『uncertain『,判別流程見下圖:

這裡顯示各個camera如何協同估計自身的pose:

17.IMU-Assisted 2D SLAM Method for Low-Texture and Dynamic Environments

前端部分,在卡爾曼濾波extended Kalman Filter (EKF)下融合IMU傳感器和2D LiDAR的2-DSLAM處理低紋理動態環境,scan matching通過LM(Levenberg–Marquardt )算法優化。在後端,做sparse pose adjustment (SPA) 。如下圖:

18.Dynamic pose graph SLAM: Long-term mapping in low dynamic environments

討論如何維護室內雷射雷達掃描的地圖,其中Dynamic Pose Graph SLAM (DPG-SLAM)做這種動態環境下的定位。DPG定義如下:

DPG的例子:

DPG的一個節點:

採用的SLAM方法是iSAM。所謂Low-dynamic objects就是那些容易加上/移動/去除的物體。關鍵是如何檢測變化和更新地圖。下面是三個相關算法圖:

19. Semantic Monocular SLAM for Highly Dynamic Environments

擴展了ORB-SLAM,特徵提取和匹配可以直接用於姿態估計,採用一個outlier概率模型處理地圖的變化,系統概略如下圖:

下面的結果來自一個demo視頻截圖:

20. Robust Monocular SLAM in Dynamic Environments

該Monocular SLAM可以處理緩慢變化的動態環境,是一種在線keyframe方法,能夠檢測變化並及時更新地圖。另外,提出一個prior-based adaptive RANSAC (PARSAC) 算法去除outlier。系統框架如下圖:

特別的,處理遮擋問題,及時檢測,下圖有它的算法框架,其中appearance變化測度如下:

下篇

這裡把語義SLAM放在這個題目的下部分。

談到語義地圖,還是要讀讀2016年的那篇綜述文章 "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age",其中第七章主要討論語義地圖的問題。

放個SLAM的標準圖:前端+後端

SLAM問題是一個factor graph:

基本上,語義地圖可以分為三種方法來加注語義概念:

SLAM幫助語義概念;

語義概念幫助SLAM;

語義概念和SLAM聯合求解。

最後還提出了四個未解決的問題(open problems):

Consistent Semantic-Metric Fusion:和尺度地圖融合;

Semantic mapping is much more than a categorization problem:語義的概念是人定義的;

Ignorance, awareness, and adaptation:缺乏自我學習知識能力;

Semantic based reasoning:不會做推理。

下面還是選了一些論文供參考(次序不按照時間)。

1.DA-RNN: Semantic Mapping with Data Associated Recurrent Neural Networks

Data Associated Recurrent Neural Networks (DA-RNNs)是產生語義標記的,採用RGB-D傳感器,SLAM是一個如KinectFusion的平臺。算法框架如下圖:

做semantic labeling的RNN模型有三個:

其中負責數據相關的Data Associated Recurrent Unit (DA-RU),結構如下:

2.Probabilistic Data Association for Semantic SLAM

實現目標識別才能做到真正的語義SLAM,文章給出了定義:

語義SLAM的問題求解表示為下面的優化過程:

求解的算法EM如下:

更細化的EM框架如下:

3.Long-term Visual Localization using Semantically Segmented Images

討論無人車的定位問題,主要基於最近的語義分割成果。

基於以上的公式,可以給出基於SIFT特徵的定位算法如下:

而語義類的定位方法不同。

基於上述公式,推導的語義類新定位算法如下:

4.Stereo Vision-based Semantic 3D Object and Ego-motion Tracking for Autonomous Driving

文章討論如何從2D檢測推斷3-D檢測的方法,本身採用雙目視覺,這樣做的原因是計算量小。提出在目標基礎上的攝像頭姿態跟蹤估計,還有動態目標 bundle adjustment (BA)方法,依此融合語義觀測模型和稀疏的特徵匹配結合以獲取3-D目標的姿態,速度和結構信息。

上圖是一個例子,上半部分是攝像頭和目標的運動軌跡,下半部分從左到右依此是雙目匹配,一個被截斷車的跟蹤,BA恢復的稀疏特徵點,和姿態估計。

整個語義意義上的跟蹤框架如下圖:左邊是CNN模型實現的視點分類和3-D檢測,中間是ORB特徵提取和匹配,而右邊是目標跟蹤和攝像頭運動估計。

5.VSO: Visual Semantic Odometry

建立語義信息作為中層的VO約束,下圖就是想解釋為什麼底層特徵跟蹤失敗的情況下帶語義信息的跟蹤仍然工作很好。

VO解決的目標是:

而其中特徵點和語義部分分別定義為:

observation likelihood model 如下

其中DT是距離變換。而semantic cost計算如下:

關於語義的觀測似然函數,下圖給出一些直觀展示:

其中σ = 10 (c),σ = 40 (d),而 (b)是二值圖像。

6.DS-SLAM: A Semantic Visual SLAM towards Dynamic Environments

清華大學基於ORB-SLAM2給出的語義SLAM方案,如圖所示:

語義分割用SegNet,有深度圖的數據可以生成最終Semantic octo-tree map。語義信息和ORB特徵檢測跟蹤結合可以消除運動物體。

上圖看出,在ORB-SLAM2基礎上,加了語義分割這部分。

7.Robust Dense Mapping for Large-Scale Dynamic Environments

雙目視覺輸入,做深度圖估計和物體分割,結合sparse scene flow,對場景進行重建。下圖是系統框圖:

8.Meaningful Maps With Object-Oriented Semantic Mapping

結合了RGB-D SLAM,語義層次上藉助深度學習的目標檢測和3-D分割。

下圖是一個示意圖:上面從左到右,是SSD的region proposal和非監督3-D分割,而下面是帶語義的地圖。

如下是語義地圖的框架:在ORB-SLAM2基礎上改的。

9.6-DoF Object Pose from Semantic Keypoints

主要是基於CNN提出semantic keypoints,和deformable shape model結合。下圖是對算法的直觀介紹:

其中CNN模型如下結構:兩個沙漏模型的疊加,輸出特徵點的熱圖(heatmap)。

10.A Unifying View of Geometry, Semantics, and Data Association in SLAM

如題目所示,將幾何,語義和數據相關幾個部分結合起來的SLAM。

上圖展示的是:測量數據包括慣導,幾何和語義 (左上角),重建傳感器軌跡(藍色),檢測的目標(車),還有估計的車部件 (綠色點,即門和輪子)。

上圖有特徵和語義特徵的比較,帶有約束的結構化目標模型和被傳感器觀測數據(landmarks的IMU和語義)的狀態向量factor graph表示。

11.DeLS-3D: Deep Localization and Segmentation with a 3D Semantic Map

傳感器融合的擴展,將GPS/IMU,攝像頭和語義地圖結合的定位。利用pose CNN做姿態估計,加上multi-layer RNN 做姿態修正。最後和segment CNN 輸出的分割結合產生地圖信息。

系統示意圖如下:

其中關鍵的segment CNN 結構如下:

12.Vision-based Semantic Mapping and Localization for Autonomous Indoor Parking

室內自動泊車採用語義地圖的應用。系統流水線如下圖:

系統前端做VO,後端做地圖優化,優化算法是基於圖論的思想,如圖所示:

13.Integrating Metric and Semantic Maps for Vision-Only Automated Parking

另外一個自動泊車的語義地圖應用,結合了Metric map和Semantic Maps。另外,不同於上一篇論文的是,只有camera傳感器。系統流程圖如下:

語義信息如下圖:停車位線。

作者提出一種Base Map + Multi-Session Mapping的結構,便於地圖更新。其中語義地圖包括三部分:靜態地圖,動態地圖和道路網絡。

14. SemanticFusion: Dense 3D Semantic Mapping with Convolutional Neural Networks

藉助CNN的工作,對RGB-D的SLAM平臺ElasticFusion做擴展。流程圖如圖所示:

下圖是一個結果例子:

15. Semi-Dense 3D Semantic Mapping from Monocular SLAM

在單目semi-dense SLAM加入深度學習的成果,構成語義地圖,系統框圖如下:其中2D-3D label transfer是將2D分割投射回3-D特徵點雲空間。

下面是一個算法流程圖,包括三個進程:Keyframe selection, 2D semantic segmentation, 和3D reconstruction with semantic optimization。

語義分割採用DeepLab-v2,SLAM是以前的LSD-SLAM,而Dense Conditional Random Fields(CRFs)負責3-D的融合。下圖是一個結果例子:

16. CubeSLAM: Monocular 3D Object Detection and SLAM without Prior Models

以前在3D目標檢測中介紹過。這裡重點是,作為一個multi-view object SLAM系統,3-D cuboid proposals在Multi-view bundle adjustment (BA)得到優化。

系統工作示意圖如下:

下圖(a) 是目標SLAM 流水線,而(b)是BA中攝像頭,目標和點之間的測量誤差。

17. Structure Aware SLAM using Quadrics and Planes

還是在ORB-SLAM2加入深度學習元素,如下圖:faster RCNN用於目標檢測,目標跟蹤結果和feature matching融合。

18. SegMap: 3D Segment Mapping using Data-Driven Descriptors

如下圖包括5部分:segment extraction, description, localization, map reconstruction, 和 semantics extraction。

下圖的FCN是附加在SegMap descriptor提取語義信息的:

下圖是從KITTI dataset提取出來的segments:vehicles, buildings, other。

19. Place Categorization and Semantic Mapping on a Mobile Robot

還是基於CNN的工作,因為訓練的是one-vs-all的分離器,系統可以在線學習新類目標,而domain knowledge加入Bayesian filter framework可實現temporal coherence。下圖是產生的語義圖例子:

如下是語義圖的結構:為繪製metric map和Semantic Map,採用occupancy grid mapping算法,每個語義層建立一個地圖層。

20. Multi-View Deep Learning for Consistent Semantic Mapping with RGB-D Cameras

基於CNN做圖像的語義分割,特別是採用CNN學習多幀連續的語義性。之後和深度圖融合。

CNN模型如圖所示:

下圖是經典的CNN encoder-decoder architecture:

21. Co-Fusion: Real-time Segmentation, Tracking and Fusion of Multiple Objects

一個輸入RGB-D的dense SLAM系統,其中目標的模型包括兩種:active 和 inactive。下圖是其數據流:

起初系統只有一個目標模型:active的背景模型。跟蹤(pose tracking),分割(包括運動分割和圖像分割),然後是融合得到新模型。運動分割基於CRF方法,圖像分割基於深度學習模型SharpMask,而融合基於surfel模型(ElasticFusion)。

下圖是一個結果例子:

22. MaskFusion: Real-Time Recognition, Tracking and Reconstruction of Multiple Moving Objects

還是CNN的成果介入,提出一個MaskFusion,即RGB-D SLAM的平臺。下圖展示的MaskFusion後端的數據流:

下圖是分割方法的拆解:(a) RGB (b) depth, (c)-(g) 各個步驟時候的結果.

而這裡是分割的流程圖:

23. Semantic Visual Localization

本文是一個實現定位的generative model,基於descriptor learning,訓練的時候加上semantic scene completion作為附加任務。

一個語義定位的例子如下圖:夏天拍攝的圖像放入資料庫,在季節變化後從不同的視角拍攝的圖像仍然可以成功定位。

下圖是descriptor learning採用的VED模型結構:

24.Joint Detection, Tracking and Mapping by Semantic Bundle Adjustment

本文給出一個Semantic Bundle Adjustment framework,在跟蹤攝像頭運動和環境建圖同時,

靜態目標被檢測出來,而檢測的目標可以參與全局語義優化中。模型資料庫保存了檢測的目標,有2-D和3-D特徵點信息。BA最後優化的是攝像頭的姿態和各個目標的姿態。

下圖是展示SBA和傳統SLAM的不同,將目標檢測加入pose graph可以改進SLAM。

下圖展示SLAM的結果:(a) 誤差累計後不能做閉環; (b) 集成目標檢測和語義分割可以做隱形的閉環,改進重建結果。

25. X-View: Graph-Based Semantic Multi-View Localization

X-View還是基於深度學習語義分割結果幫助定位。下面是一個能清楚展示系統工作原理的示意圖:

X-View是基於圖的多視角定位,其中語義圖描述子,vertex descriptor,是定位的關鍵。每個圖的節點,會提取random walk描述子,在下一步匹配定位時候用。下面就是它的系統框圖:

下圖告訴我們如何從圖像輸入中提取語義圖:

相關焦點

  • 論文推薦| 田江鵬:地圖符號的認知語義分析與動態生成
    E-mail: imjerry76@foxmail.com摘要:面向位置服務背景下地圖符號按需和動態表達的需求,提出了一種基於認知語義分析的地圖符號結構化描述模型,以及建立在此基礎上的地圖符號動態生成方法。結構化描述模型立足「現實—認知—符號」的認知語義原理,以地圖符號語素為基本單元、以語義結構為描述框架,側重描寫符號圖形和語義之間的關聯映射機制。
  • 最新語義視覺SLAM綜述:面向應用的移動機器人自主導航解決方案
    相對比,語義SLAM以高層次的環境感知為特點,因此開啟了一道新的大門,即將圖像語義應用於有效位姿估計,迴環檢測,構建3D地圖等等。這篇文章詳細回顧了語義SLAM的近期發展,主要涵蓋不同SLAM方案的感知能力,魯棒性和準確性。特別的,「語義提取器」的概念和「現代視覺同步定位和建圖」的框架被提出。本文進一步在宏觀角度討論了一些開放問題,並嘗試找到對應答案。
  • 什麼是高精度地圖的語義信息?
    語義分割圖語義有層次之分,一般來說,場景級、物體級、單點雲點 or 單像素是比較通用的空間分級方法,時間上還有靜態和動態之分。也有人把圖像的語義分為視覺層、對象層和概念層。視覺層即通常所理解的底層,即顏色、紋理和形狀等等,這些特徵都被稱為底層特徵語義;對象層即中間層,通常包含了屬性特徵等,就是某一對象在某一時刻的狀態;概念層則是高層,是圖像表達出的最接近人類理解的東西。
  • 無人駕駛技術的靈魂——SLAM的現在與未來
    其次,ORB-SLAM的建圖為稀疏特徵點,目前還沒有開放存儲和讀取地圖後重新定位的功能(雖然從實現上來講並不困難)。根據我們在建圖部分的分析,稀疏特徵點地圖只能滿足我們對定位的需求,而無法提供導航、避障、交互等諸多功能。然而,如果我們僅用ORB-SLAM處理定位問題,似乎又顯得有些過於重量級了。
  • 碩士研究生階段如何學習slam機器人?
    但是自己第一次聽說slam不太了解。希望有大佬介紹一下這個方向,以及碩士階段如何進行學習,需要哪些技能,另外就業情況如何,謝啦。鄭純然:首先是代碼環境問題:標配Ubuntu+ROS,因為絕大部分源碼是C++,所以CMake的基本模板要會用https://www.bilibili.com/video/BV1zt411G7Vn/?
  • 【泡泡機器人SLAM原創專欄-滑動窗算法】: Sliding Window Filter for SLAM
    老生常談地,先簡單說明一下slam這個問題的數學模型,機器人在運動過程中,通常會記錄大量pose,以及landmark,我們用x_p表達pose,用x_m表達landmark,那麼如果在運動過程中,有m個pose,n個landmark,整個向量可以寫成這樣的形式:對於空間中的三維運動,一般pose是一個6維的向量(位置和姿態),landmark是一個三維的向量(位置),
  • 地圖中的語義理解 | 雷鋒網公開課
    比如導航、餐飲、旅館、天氣、音樂等領域,這類問題的特點是用戶需求相對收斂,知識庫也相對成熟,並且經過了多年的整理和沉澱已經具有一定的結構化特性,知識之間已經不是孤立的知識點,而是通過知識之間的關係連成了網絡。「知識圖譜」其實就是某種這樣的網絡。限定在垂直領域的語義理解問題因為用戶需求的收斂性和知識庫的成熟,技術上會更容易,同時也會更有能力實際的解決用戶的問題和需求。
  • CVPR 2018:新型語義分割模型:動態結構化語義傳播網絡DSSPN
    這篇論文旨在將語義概念層次顯式地集成到動態網絡優化中,稱為動態結構化語義傳播網絡 (Dynamic-Structured Semantic Propagation Network,DSSPN)。對於每個圖像或數據集,DSSPN 在激活的語義神經元子圖上執行動態結構語義傳播,且子圖只選擇當前概念及其 ancestors。得益於有序語義網絡模塊和動態優化策略的優點,DSSPN 學得的視覺表徵可在不同概念之間自然地嵌入豐富的語義相關性。這種顯式的神經元定義機制使得這篇論文提出的 DSSPN 是一種語義可解釋的動態網絡架構,同時具備優秀的內存和計算效率。
  • 100多 項開源視覺 SLAM 方案夠你用了嗎?
    本文簡單將各種方案分為以下 7 類(固然有不少文章無法恰當分類,比如動態語義稠密建圖的 VISLAM +_+):3. 和 Semantic SLAM 中,但個人對這一方向比較感興趣(也是我的研究生課題),所以將其獨立出來,開源方案相對較少,但很有意思。
  • CVPR 2018 | 新型語義分割模型:動態結構化語義傳播網絡DSSPN
    這篇論文旨在將語義概念層次顯式地集成到動態網絡優化中,稱為動態結構化語義傳播網絡  (Dynamic-Structured Semantic Propagation Network,DSSPN)。對於每個圖像或數據集,DSSPN 在激活的語義神經元子圖上執行動態結構語義傳播,且子圖只選擇當前概念及其 ancestors。得益於有序語義網絡模塊和動態優化策略的優點,DSSPN 學得的視覺表徵可在不同概念之間自然地嵌入豐富的語義相關性。這種顯式的神經元定義機制使得這篇論文提出的 DSSPN 是一種語義可解釋的動態網絡架構,同時具備優秀的內存和計算效率。圖 1.
  • 清華大學江昆:自動駕駛地圖的內涵、外延與標準探討
    對於L4級別以上的自動駕駛來說,一般認為地圖是需要達到釐米級精度的。所以自動駕駛地圖有一個非常形象的別名—「高精地圖」。 高精地圖的確很形象的描述他的主要特色,但是這裡就引起了一個新的問題,也就是把研究者的注意力過度的聚焦在精度問題上。這裡我們要問,高精度的地圖是不是就是自動駕駛地圖呢?
  • 基於語義地圖的北京話和成都話意外類語氣詞類型比較
    基於語義地圖的北京話和成都話意外類語氣詞類型比較陳振寧1,陳振宇2(1. 江漢大學 人文學院,武漢 430056;2.復旦大學 中國語言文學系,上海 200433)摘要:北京話和成都話各有一批和「意外」範疇密切相關的語氣詞,在預期性、句類、行為、確定性、求答性、言談對象、情感、情緒、立場9 個維度上設置了27 個特徵對其進行分析,運用「贏多輸少」算法生成特徵語義地圖,再進行聚類和最大關聯挖掘,從而在語義地圖基礎上分析出兩者的類型差異:北京話的意外類語氣詞以「啊」最為常用而一家獨大
  • SLAM綜述(3)-視覺與慣導,視覺與深度學習SLAM
    Popup slam: Semantic monocular plane slam for low-texture environments. In 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1222–1229. IEEE, 2016.
  • Slam dunk? 巨大成功
    Reader question:Please explain 「slam dunk」, as in someone saying 「the new smartphone is a slam dunk」.
  • 學SLAM的女生,很酷
    Master伊始聽了很多學長學姐」鼓吹」我這個學校做v-SLAM的lab,聯繫了老師,有幸得到他們的認可和他們做project,繼續和SLAM糾纏不清。相較於現在大火的Deep Learning或者Reinforcement Learning有數不盡的公開課、視頻資料、不算難理解的數學理論和非常簡單可調用的包,SLAM的門檻無疑高很多。
  • 綜述|深度學習在SLAM定位與建圖中的應用(近250篇參考文獻)
    前人數十年的研究工作,通過描述物理運動狀態以及空間幾何關係,設計出了各種複雜的模型和算法來解決這一問題 [2],例如,裡程計估算(包括視覺裡程計、視覺慣性裡程計和雷射雷達裡程計等),基於圖像的全局重定位,位置識別 ,SLAM和三維重建。在理想條件下,這些傳感器和模型能夠準確估計系統狀態。
  • ORB-SLAM3 單目地圖初始化(終結篇)
    2) 怎麼解決單目沒有深度信息問題?有2種,論文用的是第二種,用一個具有高不確定度的逆深度參數來初始化點的深度信息,該參數會在後期逐漸收斂到真值。然後,中位數是median = vDists[0.5*(N-1)]=0.5×(7-1)=3,得到:可以看到,描述子B具有最小距離中值,所以選擇描述子B作為該地圖點的描述子。上述例子比較容易理解,但實際問題是,描述子是一個值,如何描述一個值和另一個值的距離呢?
  • 【泡泡一分鐘】SLOAM-森林清單的語義雷射雷達裡程計和建圖
    ,雷射雷達測距和映射的用於樹徑估計的端到端管道。由於地面和樹木周圍都被樹葉,荊棘和藤蔓包圍,而且傳感器通常會經歷劇烈運動,因此要準確映射此類環境非常困難。我們提出了一種基於語義特徵的姿態優化,該姿態優化可在估計機器人姿態的同時改進樹模型。該管道利用定製的虛擬實境工具標記3D掃描,該工具用於訓練語義分割網絡。遮罩的點雲用於計算網格圖,該網格圖標識單個實例並提取SLAM模塊使用的相關特徵。
  • SLAM算法解析:抓住視覺SLAM難點,了解技術發展大趨勢
    機器之心專欄作者:閱面科技趙季SLAM(Simultaneous Localization and Mapping) 是業界公認視覺領域空間定位技術的前沿方向,中文譯名為「同步定位與地圖構建」,它主要用於解決機器人在未知環境運動時的定位和地圖構建問題。本次閱面科技資深研究員趙季也將從 SLAM 方向著手,為大家展現更深層次的技術乾貨。
  • 關上close,shut,slam區別
    最早指合上門栓這個動作,這個動作會產生一個結果,門裡和門外隔離開了,shut有緊閉,隔絕的感覺第一句表達的是:他離開時沒有關門(這句重點在-他沒關門的行為);第二句表達的是:他離開時,門沒關(這句重點在-門沒關這個結果)表達暫時關閉用close,表達永久關閉用shut。