最佳論文
最佳論文題目:Taskonomy: Disentangling Task Transfer Learning
論文地址:https://arxiv.org/pdf/1804.08328.pdf
作者來自史丹福大學和加州大學伯克利分校,包括計算機視覺領域的著名教授Jitendra Malik和Silvio Savarese。
不同的視覺任務是相關的,還是毫不相關的?例如,曲面法線(surface normals)是否可以用來簡化對圖像深度的估計?顯然是的,這意味著視覺任務之間存在一種結構。了解這種結構很有好處;它是遷移學習的底層概念,並為識別跨任務的冗餘信息提供了一種原則性方法。例如,在相關任務之間無縫地重用監督,或者在一個系統上解決多個任務,而不增加複雜性。
在這篇論文中,作者提出一種完全計算的方法來建模視覺任務的空間結構。這是通過在一個潛在空間的26個2D,2.5D,3D和語義任務中找到(第一階和更高階)的遷移學習依賴關係來實現的。其產物是一個用於任務遷移學習(task transfer learning)的計算分類圖(computational taxonomic map)。我們研究了這種結構的影響,並利用它們來減少對標記數據的需求。
例如,我們證明了,解決一組10個任務所需的標記數據池的總數可以減少大約2/3個(與獨立訓練相比),同時保持性能幾乎一致。我們提供了一套用於計算和檢測這種分類結構的工具,包括一個求解器,用戶可以使用它為他們的用例設計有效的監督策略。
圖1:計算任務分類法(taskonomy)發現的一個示例任務結構。
論文將這一方法分解為4個步驟:
圖2:任務關係的計算建模和創建分類。 從左到右:I. 訓練特定任務的網絡。II. 在潛在空間的任務之間訓練(一階和更高階)遷移函數。III. 使用AHP(層級分析法)獲得標準化的遷移關係。IV. 使用BIP(二進位整數程序)查找全局遷移分類。
第一步: 特定於任務的建模
第二步:遷移建模
第三步:使用層級分析法(AHP)進行序數標準化
第四部:計算全局分類
圖3:任務詞典。
最佳學生論文
論文:完全捕獲:跟蹤臉部、手部和身體的3D變形模型
Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies
作者:Hanbyul Joo,Tomas Simon,Yaser Sheikh,均來自CMU
我們提出了一個統一的變形模型(deformation model),用於無標記地捕捉人體運動的多個尺度,包括面部表情、身體動作和手勢。初始模型是通過局部縫合人體各個部分的模型產生的,我們稱之為「弗蘭肯斯坦」模型。這個模型可以通過單一的無縫模型完整地表達人體部位的移動,包括面部和手部。通過大規模捕捉穿著日常服裝的人,我們優化了弗蘭肯斯坦模型,創建了「亞當」模型。「亞當」是一個校準模型,與最初的模型享有相同的骨架層次結構(skeleton hierarchy),但可以表達頭髮和服裝的幾何形狀,使其可以直接用於人們的日常生活中。最後,我們展示了使用這些模型進行全身運動追蹤,同時捕捉大規模的身體動作以及社交群體的微妙臉部和手部動作。
論文地址:http://www.zhuanzhi.ai/document/0cd16c85ed083701f0b5688bcc95770a
最佳論文提名
Deep Learning of Graph Matching
作者:Andrel Zanfir, Cristian Sminchisescu
地址:
http://openaccess.thecvf.com/content_cvpr_2018/CameraReady/1830.pdf
SPLATNet: Sparse Lattice Networks for Point Cloud Processing
作者:Hang Su, Varun Jampani, Deqing Sun, Subhransu Maji, Evangelos Kalogerakis, Ming-Hsuan Yang, Jan Kautz
地址:
https://arxiv.org/pdf/1802.08275.pdf
CodeSLAM-learning a Compact, Optimisable Representation for Dense Visual SLAM
作者:Michael Bloesch, Jan Czarnowski, Ronald Clark, Stefan Leutenegger, Andrew J. Davison
地址:
https://arxiv.org/pdf/1804.00874.pdf
Efficient Optimization for Rank-based Loss Functions
作者:Pritish Mohapatra, Michal Rolínek C.V. Jawahar, Vladimir Kolmogorov, M. Pawan Kumar
地址:
https://arxiv.org/pdf/1604.08269.pdf
經典論文:Longuest-Higgins獎
Longuet-Higgins 獎是 IEEE 計算機協會模式分析與機器智能(PAMI)技術委員會在每年的 CVPR 頒發的「計算機視覺基礎貢獻獎」,表彰十年前對計算機視覺研究產生了重大影響的 CVPR 論文。獎項以理論化學家和認知科學家 H. Christopher Longuet-Higgins 命名。
2018 年的Longuet-Higgins 獎被授予了P. Felzenszwalb等人在 2008 年發表的 CVPR 論文「A discriminatively trained, multiscale, deformable part model」。根據谷歌學術搜素引擎,這篇文章的被引次數高達 2075 次。
獲得經典論文獎的作者上臺領獎。圖片來源:熊霖
A discriminatively trained, multiscale, deformable part model
作者:Pedro.Felzenszwalb(芝加哥大學),David.McAllester(芝加哥豐田技術研究所),Deva.Ramanan(UC Irvine)
本文介紹了一種用於目標檢測的判別訓練的多尺度可變形部件模型。我們的系統在平均精度上達到了2006 PASCAL 人體檢測競賽中最優結果的兩倍,同樣比2007 PASCAL目標檢測比賽中20個類別中的10個的最優結果都要好。此系統非常依賴於可變形部件模型。隨著可變形部件模型逐漸流行,它的價值並沒有在類似PASCAL的較難的數據集上被展示。我們的系統還依賴於判別訓練的新方法。我們將一種挖掘難例(Hard Negative Example)的間隔敏感方法與隱藏變量 SVM 結合在一起。隱藏SVM類似於隱藏條件隨機場(Hidden CRF)問題,最終是一個非凸規劃的訓練問題。隱藏SVM是半凸規劃問題,但是一旦將隱藏信息指明給正樣本,則訓練問題變為凸規劃問題。我們相信我們的訓練方法最終可以利用更多的隱藏信息,例如層次(grammar)模型以及包含隱式三維姿態的模型。
論文地址:https://ieeexplore.ieee.org/document/4587597/
何愷明獲 PAMI 年輕研究員獎
另一個獎項是「PAMI 年輕研究員獎」(PAMI Young Researcher Award),這個獎項授予那些博士畢業不超過 7 年並在計算機視覺方面有卓越研究貢獻的的年輕研究人員。PAMI 年輕研究員獎自 2013 年起頒發,繼承了 2012 年IVC 的「傑出青年研究員獎」(Outstanding Young Researcher Award)。
2018 年的 PAMI 年輕研究員獎得主是德國蒂賓根大學的 Andreas Geiger 和Facebook 人工智慧研究所(FAIR)的何愷明。
兩位獲獎者上臺領獎。圖片來源:熊霖
從以上多個獎項的獲獎者來看,雖然華人學者在CVPR的論文提交數量和競賽上有出色表現,但是獲獎的比例並不算高。