本文作者:雷鋒網CVPR前線報導團隊程三川、溫曉樺、郭奕欣。
雷鋒網AI科技評論報導,今天(夏威夷當地時間7月22日),2017 CVPR 正式開幕,一百多家AI參展商陸續就位,百花齊放;而經歷了昨天的 tutorial&workshops 預熱和今天的主要議程後,不論是產業界和學術界都有著諸多感悟。
接下來,請跟隨雷鋒網AI科技評論一餉CV學術盛宴!
今年的 CVPR,是迄今規模最大的一屆。大到什麼程度呢?
22 日早上的開場報告,CVPR 宣布了一組官方數據:
相比 2016 年,
CVPR 2017 的論文有效提交數量增長了 40%,達到 2620 篇;
大會錄取的論文數量增長 22%,以長演講(Oral)、短演講(Spotlight)與 海報展示(Poster)這三種形式在大會上進行交流展示的論文,加起來共 783 篇;
論文長演講(Oral)、短演講(Spotlight)共 215 場,增長了 4%;
論文演講的分會場由兩個增加為三個,這是 20 多年來的首次增長;
贊助商增長了 30%,達到 127 家,尤其是初創企業面孔大幅增加;
贊助費總額的增長幅度為 79%,達到 85.9 萬美元;
參會人員註冊數增長 37%,達 4950 人。
這些指標中,收錄的論文數量和參會人數,特別能反映出一個學術會議的影響力。下圖是 CVPR 的官方論文收錄增長趨勢:
可以看出,從 2003 年到現在有一個十分穩定的增長趨勢。今年的增長數量逾 100 篇,大幅超過往屆。
而參會人數的變化,則與人工智慧和深度學習興起並成為社會熱點的節拍相呼應:自 2012 年之後開始,幾乎呈指數級增長,尤其是近兩三年。
一名中科院的學者對雷鋒網(公眾號:雷鋒網)表示,昨天大會第一日上各個 Workshop 做分享的一些教授,許多普通會議都很難請到。這在側面反映了 CVPR 在學術圈的地位,以及現在的火爆程度。
今天,CVPR 2017 的獲獎論文正式揭曉。本屆 CVPR 共有兩篇最佳論文、兩篇最佳論文提名、一篇最佳學生論文。蘋果去年 12 月發表的對抗網絡 SimGAN 研究,是兩篇最佳論文之一。最佳論文包括:
在最佳論文、最佳提名和最佳學生論文以外,今天的 CVPR 大會還頒布了兩個學術獎項: Longuet-Higgins 獎和 PAMI 「年輕研究員獎」。
這兩個獎項由 TCPAMI 評選,後者是 IEEE 計算機協會的「模式分析和機器智能技術委員會」。這兩個獎項比較特殊;其中,Longuet-Higgins 獎專門用來獎勵十年以前在 CVPR 發表、「經得起時間考驗」產生廣泛影響的論文。而「年輕研究員獎」顧名思義,只授予有突出表現的 CV 界後起之秀。
Longuet-Higgins 獎以英國著名理論化學家、認知科學家 H. Christopher Longuet-Higgins 的名字命名。該獎設立於 2005 年,用以獎勵對 CV 研究產生根本性影響的學術論文。它是世界上第一個針對過往論文的獎項。
今年的 Longuet-Higgins 獎被授予《Object retrieval with large vocabularies and fast spatial matching》。即「《超大詞彙量與快速空間配對情況下的目標提取 》」。作者為 James Philbin, Ondrej Chum, Michael Isard, Josef Sivic, Andrew Zisserman。在頒布該獎項時還有一個有意思的花絮——主持人介紹說,設立這樣一個獎項的初衷,是因為「大家都知道,許多對學界貢獻很大、影響力也很大的論文,在當年並不是最佳論文。」
該獎項只授予博士畢業七年以內的學者,且最多同時授予兩人。今年,獲得了年輕研究員獎的是 Ross Girshick 和 Julien Mairal。
Ross Girshick 是 FAIR (Facebook AI 研究院)的研究人員,博士畢業於芝加哥大學計算機視覺專業,是視覺感知和邏輯領域的專家。加入 Facebook 之前在微軟從事 Kinect 相關工作。他有三篇論文引用量逾 3000(Google Scholar 統計數字)。其中,2010 年發表的《Object detection with discriminatively trained part-based models》,引用量達到 5700。他的 GitHub 主頁在這裡。
Julien Mairal 在 ENS Cachan,即法國卡尚高師博士畢業。畢業後,他在加州大學伯克利分校師從著名華人學者鬱彬做研究。他的研究論文同樣受到廣泛認可——截至目前,引用量過千的有四篇(Google Scholar 統計數字)。現工作於法國國家信息與自動化研究所(INRIA)。
其 INRIA 個人主頁顯示,他感興趣的研究領域為機器學習、優化、統計信號、圖像處理與計算機視覺,並與夥伴合作從事生物信息學研究。
在這第一天正式議程中,雷鋒網與不同角色的與會者都進行了深入的交流。經歷了一整天的公式洗禮,大家都有怎樣的體會呢?
即將畢業的 MIT 博士生周博磊在本次 CVPR 上分別組織了一場 tutorial 和一場 workshop,這也是他第一次牽頭辦這樣的活動。昨天剛剛舉辦的 tutorial《Deep Learning for Objects and Scenes》非常火爆,反響也很熱烈。「物體和場景識別和檢測是計算機視覺中的核心問題之一,舉辦這次 tutorial 是幫助大家梳理圖片識別和檢測的前世今生,以及展望未來發展。」不錯的反饋也讓周博磊認為,本次 CVPR 上所做的嘗試是非常值得的。
而在本次 CVPR 上,加州伯克利大學一年級博士生許華哲作為第一作者的論文《End-To-End Learning of Driving Models From Large-Scale Video Datasets》被收錄,因此他也來到了現場並將做口頭報告。許華哲告訴雷鋒網 AI 科技評論,做報告可能只是其中的一個需求,高年級同學可能更重視在學術市場上的教職情況和企業招聘信息,而低年級學生可能更願意多結識同行學習經驗探討問題。在這次會議期間,第一次參與 CVPR 的許華哲不僅得以和昔日同學們重聚,也通過不少活動結識了新的朋友。
那麼作為一名純粹的參與者,又會有怎樣的心得體會呢?對於日本國立信息學研究所的特任研究員谷林而言,他雖然已經有兩篇論文分別被今年的 ICCV 和 MICCAI 錄用,但他依然抱著學習的心態跟著組裡的其它成員來到本次 CVPR 的現場。
他對這兩天的會議感到可喜的一點在於,開源的論文呈現越來越多的趨勢,他認為主要的原因有兩個,一個是以 GitHub 為代表的平臺提供了開原始碼的條件;其次也是為了增加自己論文被引用的可信度,提升論文作者在學界的影響力。
以上提及的都是學術界人士,那麼工業界的大牛又在短短的兩天內有著怎樣的收穫?阿里 iDST 視覺計算組負責人華先勝告訴雷鋒網 AI 科技評論,他在參會時感受一個明顯的需求,就是提升深度學習 inference 的計算效率。不管是 embedded device 上的需求,還是雲上大規模計算的場景,如何降低計算成本成為了一個熱點。「以阿里 iDST 的城市大腦項目為例,需要處理的數據量非常大,從成本的角度出發,對效率也提出了更高的要求。阿里 iDST 同樣在做相關的優化工作,也希望從本次 CVPR 上獲取一些效率提升的研究靈感。
此外,本次阿里 iDST 作為贊助廠商之一,也帶來了工業界的需求——招聘。頂級學術會議上,最不缺的自然便是人才,而工業界人士通過布展或者組織 workshop 的方式,也給學生們提供了一個互動和交流的機會。
那麼說到這裡,在 CVPR 的展臺現場,產業界又是怎樣的一番情景呢?
從上圖統計數據可以看出,CVPR近年受關注度不斷上升。據雷鋒網向官方獲得的數據顯示,2017 CVPR註冊人數高達5千人次。不過,無可厚非,在AI時代,模式識別技術首先推動的產業變革之一是自動駕駛。現場,讓人印象深刻的除了華人科學家和中國企業的踴躍參與,還有佔據半壁江山的智能出行領域企業。
如果你還覺得不夠,那隻好祭出這張中國無人駕駛天團的同框了!↓
人才爭奪的競技場
當然,除了智能出行企業,現場也不乏專注於其他應用領域的CV+公司,比如被收錄了23篇論文的商湯,這個數量遠高於BAT的發文數量。
不過,根據雷鋒網現場調查,包括全場過百家AI參展商在內,有在本次CVPR發表論文的企業佔極少數,但他們有一個共同目的:招募英才。
很明顯,與其他展覽不同的是,現場企業留下的聯繫方式多為企業招聘網址,主要站臺的人員多為HR或其他行政人員,同時,無論企業大小,多數公司還是CEO親自全程站臺。
是的,即便不遠萬裡來參展,但也沒有比在這個學術頂會上直接開展招募活動更精準高效的方式了。據了解,在21-26日大會期間,圖森、地平線、馭勢、滴滴等企業,均相繼展開各自組織的聚會活動,以此來宣講。據悉,大會主辦方也提前收集了具有招聘需求的企業名單。多家初創企業向雷鋒網表示,這已經是他們連續第二屆參與CVPR了。
傳統車企也不甘落後啦
是的,水果也要打廣告了
這應該是最好玩的展位了
關於CVPR 2017第一天我們介紹到這裡,接下來雷鋒網AI科技評論將陸續帶回更多大牛精彩訪談,以及深度論文解讀,敬請關注!
相關文章:
CVPR 獲獎論文公布,蘋果斬獲最佳論文!| CVPR 2017
通用、寶馬、豐田都投資的Nauto公司,為ADAS行業發展帶來了哪些啟示?
騰訊 AI Lab入選 CVPR 的六篇論文逐一看 | CVPR 2017
Lyft 也要加入這場自動駕駛的遊戲了,但好像很多人並不看好它
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。