當地時間 10 月 22 日,兩年一度的計算機視覺國際頂級會議 International Conference on Computer Vision(ICCV 2017)在義大利威尼斯開幕。今日,大會公布了本屆 ICCV 的獲獎論文,Facebook AI 研究員何愷明獲得最佳論文獎,同時是最佳學生論文的作者之一。算上此前在 CVPR 2009、CVPR 2016 上的兩篇「最佳論文」,何愷明現在已獲得了四個最佳論文稱號。
國際計算機視覺大會(ICCV)全稱是 IEEE International Conference on Computer Vision,由 IEEE 主辦,與計算機視覺模式識別會議(CVPR)和歐洲計算機視覺會議(ECCV)並稱計算機視覺方向的三大頂級會議。但不同於 CVPR 與 ECCV,ICCV 在世界範圍內每兩年召開一次。本屆 ICCV 會議在義大利城市威尼斯舉辦。
據統計,本屆 ICCV 共收到 2143 篇論文投稿,其中 621 篇被選為大會論文,錄用比例 29%。其中有 45 篇口頭報告(Oral)和 56 篇亮點報告(Spotlight)。大會公開的信息顯示,本屆共有 3107名參會者。
今天上午,ICCV 2017 公布了本屆大會獲獎論文。Facebook 人工智慧實驗室何愷明等人論文《Mask R-CNN》獲得最佳論文、Facebook 論文《Focal Loss for Dense Object Detection》獲得最佳學生論文獎。
同時,大會還公布了終身成就獎、傑出研究獎、Everingham 團隊獎等獎項。值得一提的是,Facebook 賈揚清帶領的 Caffe 團隊獲得了 Everingham Prize。該獎項是授予那些對計算機視覺社區作出無私貢獻的研究團隊或研究員。
以下,機器之心將對此屆獲獎論文進行摘要介紹。
最佳論文(Marr Prize)
論文《Mask R-CNN》,第一作者何愷明。(參見 學界 | Facebook 新論文提出通用目標分割框架 Mask R-CNN:更簡單更靈活表現更好)
論文連結:https://arxiv.org/abs/1703.06870
我們提出了一個概念上簡單、靈活和通用的用於目標實例分割(object instance segmentation)的框架。我們的方法能夠有效地檢測圖像中的目標,同時還能為每個實例生成一個高質量的分割掩碼(segmentation mask)。這個方面被稱為 Mask R-CNN,是在 Faster R-CNN 上的擴展——在其已有的用於邊界框識別的分支上添加了一個並行的用於預測目標掩碼的分支。Mask R-CNN 的訓練很簡單,僅比 Faster R-CNN 多一點計算開銷,運行速度為 5 fps。此外,Mask R-CNN 可以很容易泛化到其它任務,比如,讓我們可以在同一個框架中估計人類的姿態。我們在 COCO 難題套件的所有 3 種任務(track)上都得到了最佳結果,其中包括實例分割、邊界框目標檢測和人物關鍵點檢測(person keypoint detection)。沒有使用其它的技巧,Mask R-CNN 的表現超越了在每個任務上所有已有的單個模型,包括 COCO 2016 挑戰賽的獲勝模型。我們希望我們的簡單又有效的方法能成為一個堅實的基礎,能幫助簡化實例層面識別的未來研究。我們將會公開相關代碼。
最佳學生論文
最佳學生論文的第一作者 Tsung-Yi Lin 博士畢業於康乃爾大學紐約理工學院,這是他在 Facebook 工作時進行的研究。Tsung-Yi Lin 最著名的工作是他在微軟期間提出的 Coco 數據集(論文:《Microsoft coco: Common objects in context》)。目前,Lin 加入了 Google Brain 任研究科學家。
論文《Focal Loss for Dense Object Detection》
目前準確度最高的物體檢測器是基於 R-CNN 影響的兩步方法,其中一個分類器被用於處理稀疏的候選目標位置集合。相比之下,一步檢測器可以應用在密集候選目標位置的檢測中,具有更快捷、更簡便的潛力,但此前一直沒有匹配兩步檢測器的準確度。
在本論文中,我們探究了這種情況的原因。我們發現,在訓練密集檢測器時,極度前端-後端類不平衡是問題的主要原因。我們提出通過重塑標準交叉熵損失來解決這一類不平衡,以降低分配給分類範例的損失。我們提出的全新 Focal Loss 方法集中於稀疏、困難的樣例中的訓練,避免了訓練過程中可能出現的大量負面因素。為了評估新損失函數的有效性,我們設計和訓練一個簡單的密度檢測器——RetinaNet。我們的研究結果表明,當使用 Focal Loss 進行訓練時,RetinaNet 可以達到此前一步檢測器的速度,同時準確性高於業內最佳的兩步檢測器。
除了最佳論文與最佳學生論文,大會還公布了 Honorable Mentions、終身成就獎、傑出研究獎、Everingham Prize、Helmholtz 經典論文獎這些獎項的獲獎論文與個人,分別如下:
Honorable Mentions
論文:First-Person Activity Forecasting with Online Inverse Reinforcement Learning
作者:N. Rhinehart, K. Kitani(卡耐基梅隆大學)
地址:https://arxiv.org/abs/1612.07796
論文:Open Set Domain Adaptation
作者:Pau Panareda Busto、Juergen Gall
地址:http://pages.iai.uni-bonn.de/gall_juergen/download/jgall_opensetdomain_iccv17.pdf
論文:Globally-Optimal Inlier Set Maximisation for Simultaneous Camera Pose and Feature Correspondence
作者:Dylan Campbell、Lars Petersson、Laurent Kneip、Hongdong Li
地址:http://users.cecs.anu.edu.au/~hongdong/ICCV_17_2218.pdf
終身成就獎
本屆 ICCV 的終身成就獎授予 MIT 教授 Tomaso Poggio。Tomaso Poggio 是麻省理工學院人工智慧實驗室腦與認知科學系的尤金•麥克德莫特講座教授,同時也是該院生物和計算機學習中心的聯席主任,同時也是 MIT 計算機科學與人工智慧實驗室(CSAIL)成員。Poggio 於 1981 年開始在麻省理工學院任教,此前他曾在德國圖賓根馬克思普朗克研究所的生物控制論研究室工作過十年時間。1970 年,他獲得熱那亞大學的博士學位。Poggio 是義大利科學院的外籍院士,也是美國藝術與科學研究院的研究員。
傑出研究獎
傑出研究獎(Distinguished Researcher Award)授予 ETH Zentrum 教授 Luc Van Gool 與 Facebook 研究科學家、計算攝影學團隊創始人 Richard Szeliski。
Everingham 團隊獎
該獎項主要是為了獎勵那些對計算機視覺社區作出無私貢獻的研究團隊或研究員。ICCV 2017 的 Everingham Prize 授予賈揚清領銜的 Caffe 團隊,以及 ICVSS 組織者團隊。
Helmholtz 經典論文獎
該獎項主要由 ICCV 的 PAMITC 委員會每年表彰十年前對計算機視覺研究有重大影響的 ICCV 論文。
本文為機器之心報導,轉載請聯繫本公眾號獲得授權。
✄---
加入機器之心(全職記者/實習生):hr@jiqizhixin.com
投稿或尋求報導:content@jiqizhixin.com
廣告&商務合作:bd@jiqizhixin.com