2020年至今-NN SLAM各領域必讀的最新研究論文整理分享

2021-03-06 深度學習與NLP

    SLAM (simultaneous localization and mapping),也稱為CML (Concurrent Mapping and Localization), 即時定位與地圖構建,或並發建圖與定位。問題可以描述為:將一個機器人放入未知環境中的未知位置,是否有辦法讓機器人一邊移動一邊逐步描繪出此環境完全的地圖,所謂完全的地圖(a consistent map)是指不受障礙行進到房間可進入的每個角落。

    本資源整理了深度學習模型在SLAM(NN SLAM)各個領域的應用,涉及SLAM系統、自監督的SLAM架構、深度估計、視覺裡程估計、視覺慣性裡程估計、特徵表示、攝像機定位、位置識別(環路檢測)、地圖和地圖壓縮、路徑優化相關的一些近幾年最新的論文。

    資源整理自網絡,源地址:https://github.com/UltronAI/awesome-nn-slam#slam-system

目錄

    SLAM架構

    深度估計

    視覺裡程估計

    視覺慣性裡程估計

    特徵表示

    攝像機定位

    位置識別(環路檢測)

    地圖和地圖壓縮

    路徑優化

    SLAM架構

    2019

    ·[ICRA 2019] GEN-SLAM: Generative Modeling for Monocular Simultaneous Localization and Mapping

    2017

    ·[CVPR 2017] CNN-SLAM: Real-time dense monocular SLAM with learned depth prediction

    Self-supervised Structure-from-Motion

    2019

    ·[ICCV 2019] Self-Supervised Monocular Depth Hints

    ·[ICCV 2019] Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unknown Cameras

    ·[ICCV 2019] Exploiting temporal consistency for real-time video depth estimation

    ·[ICCV 2019] Digging Into Self-Supervised Monocular Depth Estimation

    ·[ICCV 2019] Unsupervised High-Resolution Depth Learning From Videos With Dual Networks

    ·[ICCV 2019] SynDeMo: Synergistic Deep Feature Alignment for Joint Learning of Depth and Ego-Motion

    ·[ICCV 2019] Enforcing geometric constraints of virtual normal for depth prediction

    ·[ICCV 2019] Self-supervised Learning with Geometric Constraints in Monocular Video Connecting Flow, Depth, and Camera

    ·[ICCV 2019] Moving Indoor: Unsupervised Video Depth Learning in Challenging Environments

    ·[ICCV 2019] Sequential Adversarial Learning for Self-Supervised Deep Visual Odometry

    ·[CoRL 2019] Two Stream Networks for Self-Supervised Ego-Motion Estimation

    ·[IROS 2019] Learning Residual Flow as Dynamic Motion from Stereo Videos

    ·[NeurIPS 2019] Unsupervised Scale-consistent Depth and Ego-motion Learning from Monocular Video

    ·[ICRA 2019] Unsupervised Learning of Monocular Depth and Ego-Motion Using Multiple Masks

    ·[ICRA 2019] GANVO - Unsupervised Deep Monocular Visual Odometry and Depth Estimation with Generative Adversarial Networks

    ·[CVPR 2019] Competitive Collaboration: Joint Unsupervised Learning of Depth, Camera Motion, Optical Flow and Motion Segmentation

    ·[CVPR 2019] UnOS: Unified Unsupervised Optical-flow and Stereo-depth Estimation by Watching Videos

    ·[AAAI 2019] Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised Learning from Monocular Videos

    ·[3DV 2019] Structured Coupled Generative Adversarial Networks for Unsupervised Monocular Depth Estimation

    ·[Arxiv 2019] Flow-Motion and Depth Network for Monocular Stereo and Beyond

    2018

    ·[ECCV 2018] DF-Net: Unsupervised Joint Learning of Depth and Flow using Cross-Task Consistency

    ·[CVPR 2018] Unsupervised Learning of Monocular Depth Estimation and Visual Odometry with Deep Feature Reconstruction

    ·[CVPR 2018] GeoNet: Unsupervised Learning of Dense Depth, Optical Flow and Camera Pose

    ·[IROS 2018] UnDEMoN: Unsupervised Deep Network for Depth and Ego-Motion Estimation

    2017

    ·[CVPR 2017] Unsupervised Learning of Depth and Ego-Motion from Video

     

    深度估計

    2019

    ·[ICCV 2019] How do neural networks see depth in single images?

    ·[ICCV 2019] Visualization of Convolutional Neural Networks for Monocular Depth Estimation

    ·[ICCV 2019] Enforcing geometric constraints of virtual normal for depth prediction

    ·[TPAMI 2019] Progressive Fusion for Unsupervised Binocular Depth Estimation using Cycled Networks

    ·[CVPR 2019] Student Becoming the Master: Knowledge Amalgamation for Joint Scene Parsing, Depth Estimation, and More

    ·[CVPR 2019] Learning Monocular Depth Estimation Infusing Traditional Stereo Knowledge

    ·[CVPR 2019] CAM-Convs: Camera-Aware Multi-Scale Convolutions for Single-View Depth

    ·[CVPR 2019] Veritatem Dies Aperit-Temporally Consistent Depth Prediction Enabled by a Multi-Task Geometric and Semantic Scene Understanding Approach

    ·[CVPR 2019] Pseudo-LiDAR from Visual Depth Estimation: Bridging the Gap in 3D Object Detection for Autonomous Driving

    ·[CVPR 2019] Bilateral Cyclic Constraint and Adaptive Regularization for Unsupervised Monocular Depth Prediction

    ·[CVPR 2019] Towards Scene Understanding: Unsupervised Monocular Depth Estimation with Semantic-aware Representation

    ·[CVPR 2019] Geometry-Aware Symmetric Domain Adaptation for Monocular Depth Estimation

    ·[CVPR 2019] Recurrent MVSNet for High-resolution Multi-view Stereo Depth Inference

    ·[CVPR 2019] Refine and Distill: Exploiting Cycle-Inconsistency and Knowledge Distillation for Unsupervised Monocular Depth Estimation

    ·[CVPR 2019] Neural RGB->D Sensing: Depth and Uncertainty from a Video Camera

    ·[Arxiv 2019] Attention-based Context Aggregation Network for Monocular Depth Estimation

    2018

    ·[ICRA 2018] Just-in-Time Reconstruction: Inpainting Sparse Maps Using Single View Depth Predictors as Priors

    ·[CVPR 2018] Learning for Disparity Estimation through Feature Constancy

    ·[CVPR 2018] Deep Ordinal Regression Network for Monocular Depth Estimation

    ·[CVPR 2018] Learning Depth from Monocular Videos using Direct Methods

    ·[CVPR 2018] Structured Attention Guided Convolutional Neural Fields for Monocular Depth Estimation

    ·[CVPR 2018 Workshop] On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach

    ·[ECCV 2018] Learning Monocular Depth by Distilling Cross-domain Stereo Networks

    ·[ECCV 2018] Look Deeper into Depth: Monocular Depth Estimation with Semantic Booster and Attention-Driven Loss

    2017

    ·[ICCV 2017] End-to-End Learning of Geometry and Context for Deep Stereo Regression

    ·[CVPR 2017] Unsupervised Monocular Depth Estimation with Left-Right Consistency

    2016 and before

    ·[ECCV 2016] Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue

    ·[NeurIPS 2014] Depth Map Prediction from a Single Image Using a Multi-scale Deep Network

     

    視覺裡程估計

    2020

    ·[ICRA 2020] Visual Odometry Revisited: What Should Be Learnt?

    2019

    ·[CVPR 2019] MagicVO: End-to-End Monocular Visual Odometry through Deep Bi-directional Recurrent Convolutional Neural Network

    ·[CVPR 2019] Understanding the Limitations of CNN-based Absolute Camera Pose Regression

    ·[CVPR 2019] Beyond Tracking: Selecting Memory and Refining Poses for Deep Visual Odometry

    ·[ICRA 2019] Learning Monocular Visual Odometry through Geometry-Aware Curriculum Learning

    2018

    ·[ICRA 2018] Deep Auxiliary Learning for Visual Localization and Odometry

    ·[ICRA 2018] UnDeepVO: Monocular Visual Odometry through Unsupervised Deep Learning

    ·[CVPR 2018 Workshop] Geometric Consistency for Self-Supervised End-to-End Visual Odometry

    ·[IJRR 2018] End-to-end, sequence-to-sequence probabilistic visual odometry through deep neural networks

    2017

    ·[ICRA 2017] DeepVO: Towards end-to-end visual odometry with deep Recurrent Convolutional Neural Networks

    ·[IROS 2017] Deep regression for monocular camera-based 6-DoF global localization in outdoor environments

     

    視覺慣性裡程估計

    2019

    ·[CVPR 2019] Selective Sensor Fusion for Neural Visual-Inertial Odometry

    2018

    ·[IROS 2018] Vision-Aided Absolute Trajectory Estimation Using an Unsupervised Deep Network with Online

    2017

    ·[AAAI 2017] VINet: Visual-Inertial Odometry as a Sequence-to-Sequence Learning ProblemError Correction

     

    特徵表示

    2019

    ·[3DV 2019] SIPs: Succinct Interest Points from Unsupervised Inlierness Probability Learning

    2018

    ·[CVPR 2018 Workshop] SuperPoint: Self-Supervised Interest Point Detection and Description

     

    攝像機定

    2019

    ·[Arxiv 2019] AtLoc: Attention Guided Camera Localization

    ·[Arxiv 2019] Hierarchical Joint Scene Coordinate Classification and Regression for Visual Localization

    2018

    ·[ICRA 2018] Deep Auxiliary Learning for Visual Localization and Odometry

    2017

    ·[IROS 2017] Deep regression for monocular camera-based 6-DoF global localization in outdoor environments

    2016 and before

    ·[ICCV 2015] PoseNet: A Convolutional Network for Real-Time 6-DOF Camera Relocalization

    Place Recognition (Loop Detection)

    2016 and before

    ·[CVPR 2016] NetVLAD: CNN Architecture for Weakly Supervised Place Recognition

     

    路徑優化

    2019

    ·[ICRA 2019] Pose Graph Optimization for Unsupervised Monocular Visual Odometry 

相關焦點

  • 文本攻防戰:清華大學開源對抗樣本必讀論文列表
    自然語言處理方面的研究在近幾年取得了驚人的進步,深度神經網絡模型已經取代了許多傳統的方法。因此,許多研究者認為應該開闢新的研究方法,特別是利用近幾年較為流行的對抗樣本生成和防禦的相關研究方法。使用對抗樣本生成和防禦的自然語言處理研究可以基本概括為以下三種:1. 用未察覺的擾動迷惑模型,並評價模型在這種情況下的表現;2. 有意的改變深度神經網絡的輸出;3. 檢測深度神經網絡是否過於敏感或過於穩定,並尋找防禦攻擊的方法。
  • SLAM 領域國內外優秀實驗室匯總(一)
    >個人主頁 谷歌學術📜 語義 SLAM 經典論文:Bowman S L, Atanasov N, Daniilidis K, et al.Probabilistic data association for semantic slam[C]//2017 IEEE international conference on robotics and automation
  • 2D雷射SLAM算法匯總
    所以Gmapping不能像cartographer那樣構建大的地圖,雖然論文生成幾萬平米的地圖,但實際我們使用中建的地圖沒有上萬平米時就會發生錯誤。缺點:依賴裡程計(odometry),無法適用無人機及地面小車不平坦區域;無迴環;2. Hector slamHector slam對傳感器的要求比較高,它主要是利用高斯牛頓方法來解決scan-matching的問題。
  • 新開源RadarSLAM: 不懼風雪雨霧夜的全天候大場景雷射SLAM!
    點擊上方「計算機視覺life」,選擇「星標」快速獲得最新乾貨
  • 2020年抗日戰爭史研究述略
    這樣的取向在2020年體現得非常明顯。戰略問題是研究者們共同感興趣的話題。相關的論文主要有吳敏超《新四軍向蘇北發展中的國共較量》、楊利文等《由線到面:抗戰時期八路軍與新四軍的連通》、郭寧《從中原到蘇北:中共發展華中戰略及其對山東的影響》、李雷波《皖東摩擦前新四軍抗戰戰略的調整與演變》與《中共「發展華中」戰略中的八路軍、新四軍及其角色轉換》。
  • 從近年頂會論文看對比學習最新研究進展
    CVPR 2020ICML 2020論文還研究了 t 撇到大 T 這個圖像增廣方式對於性能的影響。影響結果如表所示。除了最後一列以及對角線以外,其它非對角線的性能都是連續用兩次增廣的效果。由結果可以看出,僅用單種增廣的效果一般都要差於連續兩次變換的效果。
  • SLAM和三維重建有什麼區別?
    點擊上方「計算機視覺life」,選擇「星標」快速獲得最新乾貨來自知乎同名問題 https://www.zhihu.com
  • 最新開源 RGBD+IMU數據集:FMDataset
    我們提出了一個端到端的三維重建系統,主要利用彩色圖像,深度圖像以及慣性測量單元的信息實現快速相機運動下的魯棒重建。我們以擴展卡爾曼濾波為框架來融合這三類輸入,並引入迭代的方法來聯合優化特徵配準,相機姿態估計以及場景幾何。我們也提出來一個新穎的考慮幾何信息的區塊變形技術,從而適應圖像層的特徵表面變化,實現了快速相機運動下更加準確的特徵匹配。
  • 搜狗開源最新NLP研究成果,打造業內最全機器閱讀理解工具包SMRC
    近兩年來,NLP領域取得了許多突破性進展。但是在機器閱讀理解方面開源的資源還是非常少。目前在CoQA上「打榜」的選手中,只有搜狗和微軟公開了原始碼。搜狗開源SMRC恰逢其時,填補了該領域稀缺的開源資源。SMRC發布僅短短一周,已經成為該研究方向最熱門的開源項目之一。什麼是SMRC?說到SMRC,就不得不提近年來在NLP領域內的熱門問題——機器閱讀理解。
  • 「先進位造」領域優秀期刊推介 | IJAMT
    來自施普林格·自然 (Springer Nature) 的優秀期刊The International Journal of Advanced Manufacturing Technology是一本專注於化「純研究」為「先進位造」的出版物,它為製造過程、機械與工藝集成等領域的研究成果提供了一個理想的發表平臺。編輯委員會的成員對每篇論文都進行嚴格的評估,以確保論文的高質量。
  • ResNeSt 登頂COCO數據集後 ECCV2020 被拒,作者張航:只為推動領域發展
    同時提供每月大咖直播分享、真實項目需求對接、乾貨資訊匯總,行業技術交流。最近領域內的基礎網絡研究和下遊應用脫節。EfficientNet 很成功,但是它與下遊應用已有的算法不兼容。我們訓練網絡中使用了一些 EfficientNet 的訓練方法,比如 Auto Augment,但是請問為什麼 ResNet 系列就不能用訓練技巧。
  • 從4篇頂會論文看Self-training最新研究進展
    然後我們分別計算預測結果的均值和方差。文章得到的效果如下:為什麼 noisy student 能夠取得成功?在我們開始討論之前,讓我們退一步思考一下,當同一個模型同時作為教師和學生使用時的情況,由於偽標籤是使用相同的教師模型生成的,因此一個合理的假設是,在這種情況下,學生模型在未標記數據上的交叉熵損失將為零,那麼,學生模型最終將不再學習新東西。
  • 【視頻】2020年8月最新直升機環遊麥可傑克森故居夢幻莊園!
    2020年8月最新直升機環遊麥可傑克森故居夢幻莊園!
  • CVPR 引用量最高的10篇論文!何愷明ResNet登頂,YOLO佔據兩席!
    年的學術指標(Scholar Metrics)榜單,CVPR 位列AI領域排名第一的大會!這個排名是依據過去五年發表研究的數據(覆蓋2015-2019年發表的文章),並包括截止2020年6月在谷歌學術中被索引的所有文章的引用量。眾所周知,CV領域的三大頂會就是:CVPR、ICCV和ECCV。本文就來盤點CVPR 2015-2019年引用量最高的10篇論文。
  • 武漢病毒研究論文糾紛…
    圖片來源:SCIENCE CHINA Life Sciences圖片來源:中國知網上面第一個研究是來自中國科學院上海巴斯德研究所郝沛研究員、軍事醫學研究院國家應急防控藥物工程技術研究中心鍾武研究員和中科院分子植物卓越中心合成生物學重點實驗室李軒研究員合作,在SCIENCE
  • 我手寫了個SLAM算法(二)!
    1、前言看過之前兩篇文章的大朋友們應該都知道,我們在這裡分享了SLAM算法gmapping的大刀闊斧刪減版的源碼和2D雷射雷達運動畸變去除的源碼。沒看過的朋友可以點擊下方文章查看。本篇文章的主要就是分享加入2D雷射雷達運動畸變去除模塊後的刪減版gmapping代碼。
  • 工業圖像異常檢測最新研究總結(2019-2020)
    寫在前面這裡對我最近的研究領域——工業圖像上的異常檢測中最新的一些進展做一個總結。
  • 2020年國際計算機系統結構年會(ISCA2020)導讀— 基於加速器/領域專用的體系結構
    John,同時也是2019年1月開始的IEEE Micro雜誌主編。在這篇論文中,作者描述了其對加速基因數據分析領域算法的構想,通過一個稱為Genesis(GENomE analySIS)的框架,包含有效處理基因設局的系統實現和接口。這一框架可以被部署在雲端,同時探索了藉助FPGA服務方式來提供低成本的二次DNA分析。作者提出了作為一個超大關係資料庫,並且使用擴展的SQL作為領域專用語言來構造從各種數據操作類型中查詢的基因讀和相關讀屬性。
  • 解讀CVPR2020圖像翻譯最新算法
    圖像翻譯是當前計算機視覺領域的研究熱點,相比於自然語言翻譯,它將輸入圖像的表達轉化為另一種表達,在圖像創作、圖像風格化、圖像修復、域自適應學習等領域有著廣泛應用。但現有技術通常僅能產生合理的目標域圖像,如何控制圖像的具體風格呢?圖圖今天推薦的「學霸說」提供了一個解決方案。
  • 【泡泡機器人公開課預告】閆志鑫-RGBD Direct SLAM 方法原理介紹
    2018年8月19日 (周日)上午 10:00,由閆志鑫給大家帶來一次公開課,公開課題目為:RGBD Direct