你的廚房被水淹了!別擔心,這只是3D深度估計做出的特效|深度圖|...

2021-01-15 騰訊網

選自arXiv

作者:羅璇、Jia-Bin Huang等

機器之心編譯

參與:魔王、張倩

還記得那個用論文外觀判斷論文質量的研究嗎?在那份研究中,身為頂會領域主席的作者 Jia-Bin Huang 被自己開發的系統拒了稿,引來了大批社區成員的圍觀。最近,他和合作者提出了一項新的計算機視覺方法,可以讓廚房「水漫金山」,讓天空下起「彩球雨」……

點擊播放 GIF 0.0M

點擊播放 GIF 0.0M

‍‍

點擊播放 GIF 0.0M

不止如此,想要貓主子不嫌棄自己拍的醜醜視頻,這個方法也能拯救你!

點擊播放 GIF 0.0M

這項研究由來自華盛頓大學、維吉尼亞理工學院和 Facebook 的研究者合作完成。

其中第一作者羅璇現為華盛頓大學現實實驗室博士,她本科畢業於上海交通大學,導師為盧宏濤教授,研究方向為立體匹配,曾在新加坡國立大學跟隨顏水成鑽研深度學習。

第二作者 Jia-Bin Huang 為維吉尼亞理工學院助理教授,研究方向為計算機視覺、計算機圖形學和機器學習。曾擔任 WACV 2018、CVPR 2019、ICCV 2019、BMVC 2019 和 BMVC 2020 會議的領域主席。

這項研究主要探究了如何生成準確度和幾何一致性更高的視頻重建結果,目前該論文已被計算機圖形學頂級會議 SIGGRAPH 2020 接收,代碼也將在未來開源。

論文地址:https://arxiv.org/pdf/2004.15021.pdf

項目網站:https://roxanneluo.github.io/Consistent-Video-Depth-Estimation/

用手機拍攝的視頻可以做 3D 重建嗎?

基於圖像序列進行 3D 場景重建在計算機視覺社區中已有幾十年的研究歷史。毋庸置疑,最簡單的 3D 重建捕捉方式就是利用智慧型手機手持拍攝,因為這類相機很常見,還可以快速覆蓋很大的空間。如果可以利用手機拍攝的視頻實現非常密集、準確的重建,這類技術將變得非常有用。但要做到這一點困難重重。

除了重建系統都要處理的典型問題,如紋理單一區域、重複圖案和遮擋,基於手機拍攝的視頻實現重建還面臨著來自視頻本身的額外挑戰,如較高的噪聲水平、抖動和動態模糊、捲簾快門變形,以及移動對象(如人)的出現。

出於這些原因,現有的方法通常會遇到很多問題,如深度圖中有缺失區域(見下圖 b),幾何和閃爍深度不一致(見下圖 c)。

如何解決?

這篇論文提出了一種新的 3D 重建算法,可以重建單目視頻中所有像素的密集、幾何一致性深度。他們利用傳統的 structure-from-motion(SfM)方法來重建像素的幾何約束。

與傳統重建方法使用特殊先驗的做法不同,該研究使用的是基於學習的先驗,即為單圖像深度估計訓練的卷積神經網絡。在測試時,他們微調了這個網絡,來滿足特定輸入視頻的幾何約束,同時保留其為視頻中受約束較少的部分合成合理深度細節的能力。

定量驗證結果表明,與之前的單目重建方法相比,該方法可以達到更高的準確度及幾何一致性。從視覺上看,本文提出的方法也更加穩定。該方法可以處理具有中等程度晃動的手持拍攝視頻,可以應用到場景重建以及基於視頻的高級視覺效果。

但該方法的局限在於算力消耗太大,因此暫時無法用在實時的 AR 場景中。不過,論文作者也表示,會將速度的提升作為下一步的研究目標。

方法

圖 2:方法概覽。

如上圖 2 所示,該方法以單目視頻作為輸入,目的是估計相機位姿以及每個視頻幀的深度和幾何一致性深度圖。「幾何一致性」不僅意味著深度圖不會隨著時間的推移而閃爍(flicker),還意味著所有的深度圖都是彼此一致的。也就是說,我們可以利用像素深度和相機位姿在幀與幀之間準確地投影這些像素。例如,一個靜態點的所有觀察結果都應該映射到世界坐標系中一個單獨的普通 3D 點上,且沒有漂移(drift)。

隨意捕獲的輸入視頻為深度重建增加了一些挑戰。由於它們大多是手持拍攝的,相機也沒有經過標定,因此經常出現動態模糊、捲簾快門變形等問題。簡陋的光照條件也會造成額外的噪聲及模糊。而且,這些視頻通常包含動態移動的對象(如人或動物),而很多重建系統是專為靜態場景設計的,這就形成了一個大的衝突。

在有問題的場景部分,傳統的重建方法通常會生成「孔洞」(如果強制返回結果,會估計出噪聲非常大的深度)。但在這些方法對返回結果比較有信心的部分,它們通常會返回非常準確且一致的結果,因為它們嚴重依賴幾何約束。

近期基於學習的方法彌補了這些缺陷,它們利用一種數據驅動的強大先驗來預測輸入圖像的合理深度。然而,對每一幀單獨應用這些方法會導致幾何不一致和短暫的閃爍。

本文作者提出的方法結合了以上兩種方法的優點。研究者利用了幾種現成的單圖像深度估計網絡,這些經過訓練的網絡可以合成一般彩色圖像的合理深度。他們利用從視頻中藉助傳統重建方法提取的幾何約束來微調網絡。因此,該網絡學會在特定視頻上生成具有幾何一致性的深度。

該方法包括以下兩個步驟:預處理和測試時訓練。

預處理

預處理是從視頻幀中提取幾何約束的基礎。

該研究首先使用開源軟體 COLMAP 執行傳統的 SfM 重建流程。

為了改善對動態運動視頻的姿勢估計,研究者使用 Mask R-CNN 來獲取人物分割結果,並移除這些區域以獲得更可靠的關鍵點提取和匹配結果,因為視頻中的動態運動主要來自於人物。這一步可以提供準確的內部和外部相機參數,以及稀疏點雲重建。

研究者還利用光流估計了視頻幀對之間的稠密對應關係。相機標定(camera calibration)和稠密對應共同構成了幾何損失。

測試時訓練

在這一階段,研究者微調預訓練深度估計網絡,使其生成對特定輸入視頻更具幾何一致性的深度。

在每次迭代中,該方法使用當前的網絡參數採樣一對視頻幀並估計其深度圖。然後對比稠密一致性和利用當前深度估計結果得到的重投影,從而驗證深度圖是否具備幾何一致性。

最後,研究者評估了兩種幾何損失:空間損失和視差損失,並將誤差進行反向傳播,以更新網絡權重(權重對所有幀共享)。

用這種方式迭代地採樣很多對視頻幀,損失得到降低,網絡學會估計具備幾何一致性的深度,同時能夠在約束較少的部分提供合理的正則化。

該方法得到的改進通常很大,最終深度圖具備幾何一致性,與整個視頻的時序一致,且能夠準確勾勒出清晰的遮蔽邊界,即使是對於運動物體也是如此。有了計算得到的深度之後,研究者就可以為遮擋效應(occlusion effect)提供合適的深度邊界,讓真實場景的幾何與虛擬事物進行交互。

該方法效果如何?

與其他方法的對比結果

研究者對比了當前最優的深度估計算法,這些算法分為三個類別:

傳統的多視角立體視覺系統:COLMAP [Schonberger and Frahm 2016];

單幅圖像深度估計:Mannequin Challenge [Li et al. 2019] 和 MiDaS-v2 [Ranftl et al. 2019];

基於視頻的深度估計:WSVD [Wang et al. 2019a](兩幀)和 NeuralRGBD [Liu et al. 2019](多幀)。

量化對比結果和視覺對比結果見下圖:

圖 4:該研究提出的方法與 SOTA 方法的量化對比結果。

圖 5:與 SOTA 方法的視覺對比結果。

該研究提出的方法可以從手機攝像頭隨意拍攝的視頻中生成具備幾何一致性且沒有顫動的深度估計結果。

控制變量研究

表 2:控制變量研究。該量化評估結果表明該方法的設計重要性。

圖 6:該方法的設計對輸出結果的貢獻。

圖 7:使用長期時間約束和視差損失的效果分析。

在公開基準上的量化結果對比

表 3:在 ScanNet 數據集上的量化對比結果。

表 4:在 TUM-RGBD 數據集上的量化對比結果。

表 5:在 KITTI 基準數據集上的量化對比結果。

方法局限性

那麼該方法有沒有局限性呢?

作者在論文中提到了該方法的四項局限之處,分別是位姿、動態運動、光流和速度。

位姿

該方法目前依賴 COLMAP,來基於單目視頻估計相機位姿。而在難度較大的場景中,如相機平移有限及動態模糊的情況下,COLMAP 可能無法生成靠譜的稀疏重建結果和相機位姿估計。

較大的位姿誤差也會對該方法的輸出結果造成極大的負面影響,因此這限制了該方法在此類視頻中的應用。

將基於學習的位姿估計和該研究提出的方法結合起來,或許是一個不錯的研究方向。

動態運動

該方法支持包含溫和運動的視頻,但如果運動較為激烈則該方法會出現問題。

光流

該方法依賴 FlowNet2 來構建幾何約束。使用前後向傳播一致性檢查並過濾掉不可靠的光流,但這也可能出現錯誤。這時該方法無法輸出正確的深度。研究者嘗試使用稀疏光流,但效果並不好。

速度

該方法利用視頻中所有幀提取幾何約束,因此不支持在線處理。例如,對於一個包含 244 幀、708 個採樣光流對的視頻來說,該方法的測試時訓練步耗時約 40 分鐘。

此外,作者還製作了一個簡短的視頻,介紹了該研究的主要方法、思路和效果,參見:

本文為機器之心編譯,轉載請聯繫本公眾號獲得授權。

---

加入機器之心(全職記者 / 實習生):hr@jiqizhixin.com

投稿或尋求報導:content@jiqizhixin.com

廣告 & 商務合作:bd@jiqizhixin.com

相關焦點

  • 你的廚房被水淹了:別擔心,這只是3D深度估計做出的特效
    最近,他和合作者提出了一項新的計算機視覺方法,可以讓廚房「水漫金山」,讓天空下起「彩球雨」……不止如此,想要貓主子不嫌棄自己拍的醜醜視頻,這個方法也能拯救你!這項研究由來自華盛頓大學、維吉尼亞理工學院和 Facebook 的研究者合作完成。
  • 人工智慧利用單眼強度圖像進行面部深度圖估計的對抗架構深度學習
    人工智慧利用單眼強度圖像進行面部深度圖估計的對抗架構深度學習 人工智慧利用單眼強度圖像進行面部深度圖估計的對抗架構深度學習 2018-06-05 11:36:53  來源:今日頭條
  • 基於單目圖像的深度估計算法,大幅度提升基於單目圖像深度估計的精度
    簡介 基於單目圖像的深度估計算法具有方便部署、計算成本低等優點,受到了學術界和工業界日益增長的關注。現有的單目深度估計方法通常利用單一視角的圖像數據作為輸入,直接預測圖像中每個像素對應的深度值,這種解決方案導致現有方法通常需要大量的深度標註數據,而這類數據通常需要較高的採集成本。
  • Facebook 開源 3D 深度學習函數庫 PyTorch3D
    原標題:Facebook開源3D深度學習函數庫PyTorch3D來源:開源中國Facebook近日開源了將PyTorch用於3D深度學習的函數庫PyTorch3D,這是一個高度模塊化且經過優化的庫,具備獨有的功能,旨在通過PyTorch簡化3D深度學習。
  • 3D列印出來的深度神經網絡,光速求解AI數學運算
    這意味著 3D 列印 AI 分析系統在訓練完它的「層」後,還可以被優化,不會佔用太大空間或 CPU 功率。來自 UCLA 的研究人員表示,它確實可以固化,這些層本身就是由透明材料製成的 3D 列印層,印有複雜的衍射圖案,這些圖案可以對光線進行處理。如果這樣描述讓你覺得有點頭疼,不妨想想機械計算器。如今,數字計算都是在計算機邏輯中以數字形式完成的。
  • 單目深度估計論文筆記:FastDepth(1903.03273)
    FastDepth: Fast Monocular Depth Estimation on Embedded Systems文章貢獻設計了一種在嵌入式系統上運行的低延遲、高吞吐量、高精度的深度估計算法;提出了一種高效的編碼-解碼網絡架構,重點在於低延遲設計;使用最先進的網絡剪枝方法
  • 3D重建:硬派幾何求解vs深度學習打天下?
    人的眼睛可以感知到3D 信息,由於雙目視覺的存在,即使面對一張照片也可以比較輕易的從中獲取深度信息。然而,這對計算機來說卻是一個難點——3D 世界中形狀不同的物體可以在2 維世界中擁有一模一樣的投影,3D 形狀的估計實際上是一個非適定性問題(ill-posed problem)。傳統研究主要利用各類幾何關係或者先驗信息,而近年來隨著深度學習的流行,對幾何方法的研究似有所忽視。
  • 深度學習 vs. 概率圖模型 vs. 邏輯學
    很多早期的人工智慧方法是基於邏輯,並且從基於邏輯到數據驅動方法的轉變過程受到了概率論思想的深度影響,接下來我們就談談這個過程。本文按時間順序展開,先回顧邏輯學和概率圖方法,然後就人工智慧和機器學習的未來走向做出一些預測。圖片來源:Coursera的概率圖模型課1.
  • AI深度(續) | 3D人臉識別和雙目結構光慣導
    於是紐豪斯趕快諮詢了專業人士,也找到了專業論文,在「AI深度(上)」、「AI深度(下)」完成之後趕快補一篇「AI深度(續)」,這讓紐豪斯想到了「狗尾續貂」這個成語,前兩篇文章不一定是「狗尾」,但這一篇一定是貂皮大衣。
  • 深度學習新應用:在PyTorch中用單個2D圖像創建3D模型
    選自Medium作者:Phúc Lê機器之心編譯參與:李詩萌、王淑婷深度學習在諸多 2D 圖像任務中表現出色,毋庸置疑。但如何將它應用於 3D 圖像問題中呢?文本通過探索,將深度學習擴展到了單個 2D 圖像的 3D 重建任務中,並成功實現了這一應用。
  • 深度學習時代的圖模型,清華發文綜述圖網絡
    選自arXiv作者:張子威、崔鵬、朱文武機器之心編譯參與:路、曉坤深度學習在多個領域中實現成功,如聲學、圖像和自然語言處理。但是,將深度學習應用於普遍存在的圖數據仍然存在問題,這是由於圖數據的獨特特性。近期,該領域出現大量研究,極大地提升了圖分析技術。清華大學朱文武等人綜述了應用於圖的不同深度學習方法。
  • 深度學習不是萬靈藥!神經網絡3D建模其實只是圖像識別?
    但近期一項研究表明,幾乎所有基於深度神經網絡的3D中重建工作,實際上並不是重建,而是圖像分類。深度學習並不是萬能的!深度學習並不是萬靈藥。近幾年,隨著深度學習的大熱,許多研究攻克了如何從單張圖片生成3D模型。從某些方面似乎再次驗證了深度學習的神奇——doing almost the impossible。
  • FB嵌入式人工智慧平臺發布,單目3D姿態估計新方法
    AI Scholar Weekly是AI領域的學術專欄,致力於為你帶來最新潮、最全面、最深度的AI學術概覽,一網打盡每周AI學術的前沿資訊,文末還會不定期更新AI黑鏡系列小故事。周一更新,做AI科研,每周從這一篇開始就夠啦!
  • 利用深度學習估計再分析數據集中的大氣重力波參數
    深度學習已經被證明是大氣科學以及天氣和氣候預測應用中的一個強大工具。
  • 深度學習在3-D環境重建中的應用
    對於有監督的訓練,一種流行的解決方案是將旋轉估計損失給予更大的權重,如同歸一化。為了更好地無監督學習訓練旋轉預測,在最後一個卷積層之後用兩組獨立的全連接層將平移和旋轉分離。這樣為獲得更好的性能,引入一個權重標準化的旋轉預測和平移預測。深度估計器主要基於編碼器-解碼器架構以生成緻密深度圖。 與其他方法不同的是, UnDeepVO直接預測深度圖,這是因為以這種方式訓練時整個系統更容易收斂。
  • 怎樣在pr中做出特效
    pr是剪輯視頻的必備軟體,現今有越來越多的人不滿足於 傻瓜軟體做出的視頻,追求高大上,所以進階pr,ae等adobe公司的軟體,但是大多新手除了拼接視頻加幾個效果之後就什麼都不會了,pr特效不僅需要基本技巧,還是需要一些乾貨的
  • 遊戲圈蝴蝶效應 深度解析撲面而來的遊戲3D視覺時代
    遊戲圈蝴蝶效應 深度解析撲面而來的遊戲3D視覺時代 來源: 178新聞中心 作者: 姚宇 發布時間:2010-07-05 11:39:30 轉到個人空間   來自E32010的思考:下一個方向——遊戲3D視覺?
  • 3D深度傳感ToF技術的基本原理解析
    然後,詳細介紹ADI公司的3D 深度傳感ToF技術的核心—— ADDI9036 模擬前端,這是一個完整的ToF信號處理器件,集成了深度處理器,將來自VGA CCD 傳感器的原始圖像數據處理成深度/像素數據。我們還將討論ADI如何通過硬體合作夥伴生態系統,將這項技術擴展到我們廣闊的市場客戶群。
  • 「思維」深度思考:給大腦安裝探測器
    李四隻是粗略看了一眼,於是趕緊跑到市場上重新詢問,回來答覆老闆:「一共四十袋土豆。」老闆依舊是微笑著看著李四,再次問道:「土豆價格怎樣?」李四有些委屈,小聲說道:「你也沒讓我問土豆價格呀。」老闆讓李四坐在一旁,把張三叫了過來,吩咐道:「你去看看市場上有沒有買土豆的。」
  • 深度攝像頭(TOF Camera)原理是什麼?
    深度檢測只是計算機視覺中一個基本而又核心的任務,要準確地檢測目標,可能還需要做很多圖像分割,識別,跟蹤方面的工作。人類雙眼的基本原理就是stereo vision的主要依據,依靠視差(disparity)來估計深度。