泡泡圖靈智庫,帶你精讀機器人頂級會議文章
標題:Displacement-Invariant Matching Cost Learning for Accurate Optical Flow Estimation
作者:Jianyuan Wang, Yiran Zhong, Yuchao Dai, Kaihao Zhang, Pan Ji, Hongdong Li
來源:NeurIPS 2020
編譯:陳聖倫
審核:李鑫
這是泡泡圖靈智庫推送的第570篇文章,歡迎個人轉發朋友圈;其他機構或自媒體如需轉載,後臺留言申請授權
大家好,今天為大家帶來的文章是Displacement-Invariant Matching Cost Learning for Accurate Optical Flow Estimation。已經證明學習匹配代價是最先進的深度立體匹配方法成功的關鍵,該方法在一個4D特徵體用3D卷積學習3D代價體。然而,這一機制從未用於光流任務。這主要是由於在光流計算中搜索維數顯著增加,即直接擴展需要稠密的4D卷積處理5D特徵體,在計算上這是不可行的。本文提出了一種新的解決方案,該方案能夠繞過構建5D特徵體的需求,同時仍然允許網絡從數據中學習合適的匹配代價。我們的關鍵創新是分離二維平移之間的連接,獨立地學習每個二維平移假設下的匹配代價,即平移不變代價學習。具體來說,在每個2D平移假設上獨立地應用相同的基於2D卷積的匹配網絡學習一個4D代價體。此外,我們提出了一個平移感知投影層,它考慮了不同平移之間的相關性,調整學習代價體的尺度,緩解了學習代價體中的多模態問題。然後,通過二維soft argmin層由代價體計算光流估計。實驗表明,我們的方法在各種數據集上達到了最先進的精度,並在Sintel基準上優於所有已發表的光流方法。https://github.com/jytime/DICL-Flow
貢獻:
1.據我們所知,該方法是第一個通過引入平移不變代價學習模塊,能夠從連接特徵中學習匹配代價的光流估計方法。
2.提出平移感知投影層,考慮了不同運動假設之間的相關性。
3.在多個數據集上達到了最先進的精度,並且在Sintel中優於所有發布的光流估計方法。還提供了廣泛的定量和定性分析,以驗證方法的有效性。
該網絡採用五層金子塔提取特徵,每一層的解析度分為輸入的1/4,1/8,1/16,1/32和1/64。在匹配網絡中,每一個層級的最大搜索平移均為3,平移感知投影層放縮學習代價。然後使用2D的soft-argmin計算光流。此外,還採用了上下文網絡聚合上下文信息,並藉助擴張卷積對光流估計進行後處理。F1和F2為源圖像和目標圖像(H*W)的特徵,其維度是L*λH*λW。VCN算法的計算餘弦相似度作為匹配代價,其中u為平移。拼接候選窗口U*V內的匹配代價可以構成4D的代價體,其維度為U*V*λH*λW。多通道的代價體,可以由K個特徵計算的K的4D代價體拼接而成,其維度為K*U*V*λH*λW。
平移不變代價學習(DICL)模塊可以不構建5D代價體,同時仍然允許網絡使用2D卷積學習匹配代價。數學上,對於每個平移u,可以將特徵連接起來形成一個覆蓋所有像素點(λH*λW)的特徵圖Fu,其中||表示拼接操作,Fu的維度為2L*λH*λW。本文提出使用2D卷積G()學習代價。
對於U*V窗口中每一個平移u都使用相同的網絡計算代價,因此無需構建5D代價體,獨立的執行G()U*V次即可。與直接對5D特徵體應用4D卷積相比,本文在一定程度上削弱候選平移之間的相關性。為了解決這一問題,提出用所有平移點上的匹配代價的線性組合來重新加權每個平移點上的匹配代價。其中U表示平移的集合,提出的平移感知投影(DAP)層利用不同候選平移之間的相關性實現更好的匹配代價估計,從而感知平移。
其中u表示平移向量(u,v),p是平移u的概率,由C'u經過softmax計算,u^為光流。
表1 C+T表示在Chair和Things數據集預訓練,+K/S表示在KITTI或Sintel數據集微調。
表2 消融實驗。Reduced DICL與DICL結構一樣,但使用1*1卷積。
如果你對本文感興趣,想要下載完整文章進行閱讀,可以關注【泡泡機器人SLAM】公眾號。
點擊閱讀原文, 即可獲取本文下載連結。
歡迎來到泡泡論壇,這裡有大牛為你解答關於SLAM的任何疑惑。
有想問的問題,或者想刷帖回答問題,泡泡論壇歡迎你!
泡泡網站:www.paopaorobot.org
泡泡論壇:http://paopaorobot.org/bbs/
泡泡機器人SLAM的原創內容均由泡泡機器人的成員花費大量心血製作而成,希望大家珍惜我們的勞動成果,轉載請務必註明出自【泡泡機器人SLAM】微信公眾號,否則侵權必究!同時,我們也歡迎各位轉載到自己的朋友圈,讓更多的人能進入到SLAM這個領域中,讓我們共同為推進中國的SLAM事業而努力!
商業合作及轉載請聯繫paopaorobot@163.com