【泡泡一分鐘】FlowFusion:基於光流的動態密集RGB-D SLAM

2021-01-20 泡泡機器人SLAM

每天一分鐘,帶你讀遍機器人頂級會議文章

標題:FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow

作者:Tianwei Zhang, Huayan Zhang, Yang Li, Y oshihiko Nakamura and Lei Zhang

來源:2020 IEEE International Conference on Robotics and Automation (ICRA)

編譯:姚潘濤

審核:柴毅,王靖淇

這是泡泡一分鐘推送的第 669 篇文章,歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,後臺留言申請授權

       動態環境對視覺SLAM具有挑戰性,因為運動物體遮擋了靜態環境特徵並導致錯誤的攝像機運動估計。在這篇文章中,我們提出了一個新的密集的三維立體模型解決方案,同時完成了動態/靜態分割和相機自我運動估計以及靜態背景重建。我們的創新之處在於使用光流殘差來突出RGBD點雲中的動態語義,並為攝像機跟蹤和背景重建提供更準確和有效的動態/靜態分割。在公共數據集和真實動態場景上的密集重建結果表明,與現有方法相比,該方法在動態和靜態環境下均取得了準確和高效的性能。

圖1 提出的流融合框架:輸入兩個連續的RGB-D幀A和B,RGB圖像首先被饋送到PWC-net用於光流(黃色箭頭)估計。同時,強度和深度對A和B被饋送到魯棒相機自我運動估計器,以初始化相機運動ξ(在第三節-A中介紹)。然後,我們用ξ將幀A扭曲到A』,並獲得投影的2D場景流(第三節-第二節),然後將其應用於動態分割。經過幾次迭代(第三節,綠色箭頭),靜態背景實現重建。

圖2 投影的2D場景在圖像平面中流動。xp是幀A中的一個對象點投影像素,xq是幀B上的同一個3D點(屬於移動對象)。紅色箭頭表示場景流,這是世界空間運動,藍色箭頭是幀A > B中的光流,綠色箭頭是圖像平面上投影的2D場景流,黃色向量是攝像機自身運動產生的自我流。

圖3 迭代估計動態場景中的2D場景流。(a)是機器人向左移動而人類向右移動的場景。(b)是根據(a)的圖像對估計的光流。顏色表示流動方向,強度表示像素位移。藍色的流動是相機自我運動的結果。我們從光流中減去自我流,得到像平面上的場景流分量,如(c)所示。在(b)中迭代地移除場景流和自我流,在7次迭代之後,可以獲得更好的2D場景流結果,如(d)。

圖4 TUM f R3/行走xyz序列的比較實驗。比較了JF、SF、PF和提出的FF方法的動態分割性能。藍色部分在JF和舊金山是靜態的。紅色部分在PF和FF中是靜態的。第一行是輸入的RGB幀,其他行是每種方法的動態/靜態分割結果,最後一列顯示背景重建(JF除外,它沒有提供重建功能)。請參見選項卡。二、Tab。三為比較結果。

圖5 TUM fr3/行走xyz動態序列的一個TE和RPE。基於粒子濾波的目標檢測實現了最小的軌跡誤差。與其他無模型動態SLAM解決方案相比,該方案具有更好的性能。關於阿泰RMSE,PF達到4.1釐米,而FF達到12釐米。對於視網膜色素上皮RMSE,平均流速達到13釐米/秒,而平均流速達到21釐米/秒

圖6 在HRPSlam 2.1序列上的流融合實驗結果。黃色部分是估計的動態對象。在這個序列中,HRP-4人形機器人安裝一個RGB-D傳感器,首先移動到他的左側,然後向右轉動。這些數據集包含豐富的快速旋轉運動和抖動,這使得難以獲得光流殘差。腳部分被分割成靜態背景,因為在行走階段,地面上的支撐腳很容易被視為靜態對象。雖然掃地腳移動得很快,並保留了大量的光流殘餘,但它們離堅硬的地面太近了。因此,由於圖的連通性,它們很容易被分割成靜態背景。

Abstract

Dynamic environments are challenging for visual SLAM since the moving objects occlude the static environment features and lead to wrong camera motion estimation. In this paper, we present a novel dense RGB-D SLAM solution that simultaneously accomplishes the dynamic/static segmentation and camera ego-motion estimation as well as the static background reconstructions. Our novelty is using optical flow residuals to highlight the dynamic semantics in the RGBD point clouds and provide more accurate and efficient dynamic/static segmentation for camera tracking and background reconstruction. The dense reconstruction results on public datasets and real dynamic scenes indicate that the proposed approach achieved accurate and efficient performances in both dynamic and static environments compared to state-of-the-art approaches.


如果你對本文感興趣,請點擊點擊閱讀原文下載完整文章,如想查看更多文章請關注【泡泡機器人SLAM】公眾號(paopaorobot_slam)

百度網盤提取碼:x9gh

歡迎來到泡泡論壇,這裡有大牛為你解答關於SLAM的任何疑惑。

有想問的問題,或者想刷帖回答問題,泡泡論壇歡迎你!

泡泡網站:www.paopaorobot.org

泡泡論壇:http://paopaorobot.org/bbs/


泡泡機器人SLAM的原創內容均由泡泡機器人的成員花費大量心血製作而成,希望大家珍惜我們的勞動成果,轉載請務必註明出自【泡泡機器人SLAM】微信公眾號,否則侵權必究!同時,我們也歡迎各位轉載到自己的朋友圈,讓更多的人能進入到SLAM這個領域中,讓我們共同為推進中國的SLAM事業而努力!

商業合作及轉載請聯繫paopaorobot@163.com

相關焦點

  • 論文簡述|FlowFusion:基於光流的動態稠密RGB-D SLAM
    我們的創新之處在於使用光流殘差來突出RGBD點雲中的動態語義,並為攝像機跟蹤和背景重建提供更準確和有效的動態/靜態分割.在公共數據集和真實動態場景上的密集重建結果表明,與現有方法相比,該方法在動態和靜態環境下均取得了準確和高效的性能.
  • 【泡泡一分鐘】在先驗雷達地圖中的視覺慣導定位
    每天一分鐘,帶你讀遍機器人頂級會議文章標題:Learning Depth from Monocular Videos using  Direct Methods作者:Xingxing Zuoz, Patrick Genevaz, Yulin Yang, Wenlong Ye, Yong Liu, and Guoquan Huang
  • 讓無人機自主避障教學研究邁向更高處slam導航避障算法
    2、無人機平臺  無人機平臺專為基於機器視覺無人平臺自主導航避障系統研發,具有飛行穩定。可通過串口、USB接口、網絡通訊等多種通訊控制接口控制。可搭載超聲波、雷射、光流GPS、PTK等諸多傳感器,適應多種應用環境與系統組合。
  • 光流(Optical Flow)算法原理及示例
    Lucas–Kanade方法(KLT)是一種基於光流原理的特徵點跟蹤算法。本文首先介紹光流的原理,然後介紹了KLT及其相關的KLT變體算法。光流約束方程假設I(x,y,t)為時刻t像素點(x,y)的像素值(亮度),該像素點在兩個圖像幀之間移動了Δx,Δy,Δt。
  • 使用Amazon SageMaker 運行基於 TensorFlow 的中文命名實體識別
    二、中文命名實體識別算法NER一直是自然語言處理(NLP)領域中的研究熱點,從早期基於詞典和規則的方法,到傳統機器學習的方法,到近年來基於深度學習的方法,NER研究進展的大概趨勢大致如下圖所示。早期的命名實體識別方法基本都是基於規則的。之後由於基於大規模的語料庫的統計方法在自然語言處理各個方面取得不錯的效果之後,一大批機器學習的方法也出現在命名實體類識別任務。
  • 【致敬周杰倫】基於TensorFlow讓機器生成周董的歌詞(附源碼)
    之間的映射,那麼seq2seq模型的工作流程如下:序列A中的每一個單詞通過word_embedding操作以後,作為input進入編碼器,編碼器可以是一個多層RNN結構,編碼器輸出一個向量;訓練的時候,解碼器的輸入跟編碼器的輸入是一樣的,然後解碼器的輸出與序列B之間的交叉熵作為模型的目標函數;生成的時候,首先給定一個種子序列作為編碼器的輸入,並且解碼器的上一時刻的輸出作為下一時刻的輸入
  • fusionzoom是什麼?fusionzoom tool服務介紹
    那fusionzoom是什麼? 那fusionzoom是什麼? Fusionzoom ERP 管理系統 跨境電商一站式服務系統,重用戶體驗、數據分析,幫助企業規範工作流程,一個帳號即可管控多店鋪、多平臺,保證賣家在旺季不缺貨,不斷貨,不滯銷,不積壓。
  • 令人困惑的 TensorFlow!(II)
    ., name="cool_const")d = tf.constant(3., name="cool_const")print a.name, b.name, c.name, d.name輸出:Const:0 Const_1:0 cool_const:0 cool_const_1:0雖然節點命名並非必要,但在調試時非常有用。
  • 【泡泡圖靈智庫】通過觀察靜止的人去學習移動的深度(CVPR)
    設計並訓練了一種基於深度網絡的模型,用於預測攝像機運動和複雜人體同時運動情況下的密集深度圖。      本文模型預測了當普通相機和場景中的人都在自由移動時(圖1右圖)的密集深度。在Mannequin挑戰數據集上訓練該模型。以各種各樣的自然姿勢定格,而相機則在鏡頭前移動(左)。因為人是靜止的,所以幾何約束成立。這使得可以使用多視點立體來估計深度,從而在訓練過程中起到監督的作用。
  • 【TF秘籍】令人困惑的 TensorFlow!(II)
    ., name="cool_const")d = tf.constant(3., name="cool_const")print a.name, b.name, c.name, d.name輸出:Const:0 Const_1:0 cool_const:0 cool_const_1:0雖然節點命名並非必要,但在調試時非常有用。
  • 詳解深度強化學習展現TensorFlow 2.0新特性(代碼)
    讀者也可以在TensorFlow文檔中對此做深入了解:https://www.tensorflow.org/tutorials/eager/eager_basics深度強化學習一般來說,強化學習是解決順序決策問題的高級框架。RL智能體通過基於某些觀察採取行動來導航環境,並因此獲得獎勵。
  • 【泡泡機器人公開課預告】Direct Line Guidance Odometry
    His research interests focus on:SLAM 3D Reconstruction Sensor Fusion Deep Learning 北京時間:2018年5月17日 20:00 - 21:00  此次分享採用鬥魚直播,長按下圖,識別圖中二維碼,關注「泡泡機器人SLAM
  • 小時候五彩繽紛的泡泡,長大後輕盈如雲的泡泡奶茶
    小時候,很喜歡一個個漂浮在空中,折射出五彩繽紛色彩的泡泡。長大了,再也不好意思吹泡泡了,卻由衷愛上了泡泡奶茶。記載著美好回憶的泡泡遇上最愛的奶茶,就像童年與成年的交匯,意味著長大了,卻也還有小時候的美好。
  • Sentinel Dashboard(基於1.8.1)流控規則持久化到Nacos——涉及...
    前言之前雖然也一直在使用sentinel實現限流熔斷功能,但卻沒有好好整理之前看的源碼與資料,今天有時間將之前自己整理過的資料寫成一篇博文,或者是是一篇關於Sentinel(基於目前最近版本1.8,如果沒有特殊說明,都指最新1.8版本)持久化Nacos的指南,因為我發現網上的一些博文雖然有參考價值但卻沒有好好完善好細節,一知半解
  • Word Flow輸入法怎麼用 word flow輸入法使用方法
    word flow輸入法是什麼?近期,微軟官方將他們全新輸入法word flow帶給ios用戶,這意味著,以後iPhone手機很有可能用上word flow輸入法。那麼Word Flow輸入法怎麼用?word flow輸入法是什麼?讓小編給大家介紹一下吧!
  • 一種基於 gitlab 的適用於版本發布的 git-flow 協作規範
    最近自己搞了一個基於 gitlab 的適用於版本發布(非持續集成)的脫胎於 git-flow
  • mnist tensorflow 預測專題及常見問題 - CSDN
    # Dropout隨機失活率 18 19 # 佔位符 20 x = tf.placeholder(tf.float32, [None, n_input]) 21 y = tf.placeholder(tf.float32, [None, n_classes]) 22 keep_prob = tf.placeholder(tf.float32) 23 24 # 卷積 25 def conv2d(