每天一分鐘,帶你讀遍機器人頂級會議文章
標題:FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow
作者:Tianwei Zhang, Huayan Zhang, Yang Li, Y oshihiko Nakamura and Lei Zhang
來源:2020 IEEE International Conference on Robotics and Automation (ICRA)
編譯:姚潘濤
審核:柴毅,王靖淇
這是泡泡一分鐘推送的第 669 篇文章,歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,後臺留言申請授權
動態環境對視覺SLAM具有挑戰性,因為運動物體遮擋了靜態環境特徵並導致錯誤的攝像機運動估計。在這篇文章中,我們提出了一個新的密集的三維立體模型解決方案,同時完成了動態/靜態分割和相機自我運動估計以及靜態背景重建。我們的創新之處在於使用光流殘差來突出RGBD點雲中的動態語義,並為攝像機跟蹤和背景重建提供更準確和有效的動態/靜態分割。在公共數據集和真實動態場景上的密集重建結果表明,與現有方法相比,該方法在動態和靜態環境下均取得了準確和高效的性能。
圖1 提出的流融合框架:輸入兩個連續的RGB-D幀A和B,RGB圖像首先被饋送到PWC-net用於光流(黃色箭頭)估計。同時,強度和深度對A和B被饋送到魯棒相機自我運動估計器,以初始化相機運動ξ(在第三節-A中介紹)。然後,我們用ξ將幀A扭曲到A』,並獲得投影的2D場景流(第三節-第二節),然後將其應用於動態分割。經過幾次迭代(第三節,綠色箭頭),靜態背景實現重建。
圖2 投影的2D場景在圖像平面中流動。xp是幀A中的一個對象點投影像素,xq是幀B上的同一個3D點(屬於移動對象)。紅色箭頭表示場景流,這是世界空間運動,藍色箭頭是幀A > B中的光流,綠色箭頭是圖像平面上投影的2D場景流,黃色向量是攝像機自身運動產生的自我流。
圖3 迭代估計動態場景中的2D場景流。(a)是機器人向左移動而人類向右移動的場景。(b)是根據(a)的圖像對估計的光流。顏色表示流動方向,強度表示像素位移。藍色的流動是相機自我運動的結果。我們從光流中減去自我流,得到像平面上的場景流分量,如(c)所示。在(b)中迭代地移除場景流和自我流,在7次迭代之後,可以獲得更好的2D場景流結果,如(d)。
圖4 TUM f R3/行走xyz序列的比較實驗。比較了JF、SF、PF和提出的FF方法的動態分割性能。藍色部分在JF和舊金山是靜態的。紅色部分在PF和FF中是靜態的。第一行是輸入的RGB幀,其他行是每種方法的動態/靜態分割結果,最後一列顯示背景重建(JF除外,它沒有提供重建功能)。請參見選項卡。二、Tab。三為比較結果。
圖5 TUM fr3/行走xyz動態序列的一個TE和RPE。基於粒子濾波的目標檢測實現了最小的軌跡誤差。與其他無模型動態SLAM解決方案相比,該方案具有更好的性能。關於阿泰RMSE,PF達到4.1釐米,而FF達到12釐米。對於視網膜色素上皮RMSE,平均流速達到13釐米/秒,而平均流速達到21釐米/秒
圖6 在HRPSlam 2.1序列上的流融合實驗結果。黃色部分是估計的動態對象。在這個序列中,HRP-4人形機器人安裝一個RGB-D傳感器,首先移動到他的左側,然後向右轉動。這些數據集包含豐富的快速旋轉運動和抖動,這使得難以獲得光流殘差。腳部分被分割成靜態背景,因為在行走階段,地面上的支撐腳很容易被視為靜態對象。雖然掃地腳移動得很快,並保留了大量的光流殘餘,但它們離堅硬的地面太近了。因此,由於圖的連通性,它們很容易被分割成靜態背景。
Abstract
Dynamic environments are challenging for visual SLAM since the moving objects occlude the static environment features and lead to wrong camera motion estimation. In this paper, we present a novel dense RGB-D SLAM solution that simultaneously accomplishes the dynamic/static segmentation and camera ego-motion estimation as well as the static background reconstructions. Our novelty is using optical flow residuals to highlight the dynamic semantics in the RGBD point clouds and provide more accurate and efficient dynamic/static segmentation for camera tracking and background reconstruction. The dense reconstruction results on public datasets and real dynamic scenes indicate that the proposed approach achieved accurate and efficient performances in both dynamic and static environments compared to state-of-the-art approaches.
如果你對本文感興趣,請點擊點擊閱讀原文下載完整文章,如想查看更多文章請關注【泡泡機器人SLAM】公眾號(paopaorobot_slam)。
百度網盤提取碼:x9gh
歡迎來到泡泡論壇,這裡有大牛為你解答關於SLAM的任何疑惑。
有想問的問題,或者想刷帖回答問題,泡泡論壇歡迎你!
泡泡網站:www.paopaorobot.org
泡泡論壇:http://paopaorobot.org/bbs/
泡泡機器人SLAM的原創內容均由泡泡機器人的成員花費大量心血製作而成,希望大家珍惜我們的勞動成果,轉載請務必註明出自【泡泡機器人SLAM】微信公眾號,否則侵權必究!同時,我們也歡迎各位轉載到自己的朋友圈,讓更多的人能進入到SLAM這個領域中,讓我們共同為推進中國的SLAM事業而努力!
商業合作及轉載請聯繫paopaorobot@163.com