來源:NIPS官網
譯者:聞菲、胡祥傑
【新智元導讀】備受推崇的頂級會議NIPS預計12月舉行,但從4月起議論就沒有停,尤其是圍繞論文。今天,組織方公開了NIPS 2016論文評議過程,本文就從這屆會議頗有爭議的論文評議故事說起。29年的NIPS,論文接收都有什麼特點?對了,今年會議共收到2500篇論文,近 20%都在講深度學習。本文還介紹了谷歌 DeepMind 本次被接收的 8 篇論文,關注新智元,在後臺回復「0818」下載全部論文。最後,NIPS 2016 相關信息,請關注新智元後續報導。
機器學習領域頂尖學術會議——神經信息處理系統進展大會(Advances in Neural Information Processing Systems,NIPS),就是放在整個計算機科學界,也是數一數二的頂級學術會議。
研究成果被這樣的會議接收自然是一大榮譽。不過,2016年的 NIPS(預定在今年 12 月初召開),卻因為相對較早的論文提交截止時間——各種事務匯集的 5 月底——弄得很多研究人員苦不堪言。上個月,NIPS 2016 的論文評議結果陸續公布,又激起一波爭論。
Twitter 上相關信息有很多,這裡選幾個有代表性的,比如分數不低但仍被拒絕的(#NIPS2016 is crazy, 6 reviews, avg: quality 3.5, novelty 3, impact 3.33, clarity 4 ---> rejected),還有「結果出來了,準備好開罵了嗎」(#nips2016 reviews are out! ready for the anonymous scolding?)等等。
今天,NIPS 2016 會議組織方發表文章,公布了本屆會議論文評議過程,也算是回應了此前的爭論。
NIPS2016 共接收 2500 篇論文,近 20% 在談深度學習NIPS 2016 組委會表示,論文評審遵循以下兩個方針:
確保項目質量
發明新的評審步驟,以適應越來越多的投稿數量
是的,投稿數量多也是個問題。本屆會議共收到投稿 2500 篇,作者總人數超過 6000。
從這裡就能看出,即使是頂尖計算機科學家,也逃不過定勢——組織方統計了論文提交的時間,絕大多數都是逼近死線才上交。
NIPS2016 論文提交截止時間是 5 月20日,從上圖可以見,大部分論文都集中到截止日期前兩天開始提交。
經過整理,NIPS 2016 接收論文的有效數量為 2406 篇。(這篇文章詳細介紹了論文的評審流程。了解細節,請訪問這裡:http://www.tml.cs.uni-tuebingen.de/team/luxburg/misc/nips2016/index.php)
補充說明:NIPS 從 1987 年到 2005 年,過去 29 年,一共接收了 6483 篇論文。
這樣一對比,就可以看出今年的盛況了。
會議組織方從 3242 名評審那裡收到了 1.3674 萬條評議意見。平均每位評審提供了 4.05 條意見,每篇論文都經過 5.97 次評議——每篇論文大約有 6 個人評議,難怪有些文章會連架都吵起來。
評分標準簡單來說有四條:技術含量、創新程度、實用性,表述清晰。
每個都有1 ~ 5 分。不過,實際上取得 3 分,就已經是排名前 30% 的論文了。
NIPS 2016 論文整體表現大致是這個樣子的(遭到拒絕的是多數):
其中,被接收的論文有將近 20 % 都在談論深度學習:
上面那張圖是所有論文按學科分類,下面是被會議接收的論文按學科分類。
篇幅有限,這裡就只介紹排名前 30 的分領域。
1. 深度學習或神經網絡 2.大型學習和大數據3.凸優化4. 聚類5. 學習理論6. 圖形模型7. 在線學習8. 稀疏和功能選擇9. 強化學習算法10. 核方法11. 矩陣分解12. 山賊算法13. 成分分析14. 隨機方法15. 高斯過程16. MCMC17. 非線性、維數約簡和流形學習18. 時間序列分析19. 選型和結構學習20. 多任務/遷移學習21. 貝葉斯非參數 22. 光譜方法23. 變分推理24. 組合優化25. 半監督學習26. 結構預測27. 集成學習和提升算法28. 基於圖的學習 29. 主動學習30. 排名和偏好學習關注新智元,在後臺回復「0818」下載全部論文
作為人工智慧領域強中手,谷歌 DeepMind 本屆會議一共被接收了 8 篇論文。雖然主題各不相同,不過還是能發現,DeepMind 研究員將其擅長的深度強化學習發揚光大,同時在小數據學習、模型設計等方面也有進展。
我們將其選為代表,整體介紹。
題目:學習與深度多智能體增強學習通信(Learning to Communicate with Deep Multi-Agent Reinforcement Learning)
作者:Jakob N. Foerster, Yannis M. Assael, Nando de Freitas, Shimon Whiteson
摘要
本論文由牛津大學、加拿大先進技術研究院CIFAR NCAP項目組以及谷歌 DeepMind 聯合完成。作者思考了多智能體在環境中的感知和行動難題,目標是讓它們的分享便利性最大化。在這些環境中,智能體必須學習通信協議,以分享完成既定任務所需要的信息。通過使用深度神經網絡,我們能在複雜的環境中展示端對端的協議學習,比如,存在通信謎語或者智能部分觀察的多智能體計算機視覺難題。我們提出了兩種學習方法:增強內部智能體學習(RIAL)和差異內部智能體學習(DIAL)。前者使用深度Q-Learning,後者探索了這樣一個事實,那就是,在學習的過程中,智能體能通過(嘈雜)通信環境,對錯誤衍生物進行反向傳播。因而,這一方法使用的是中心化學習而不是去中心化的口令。我們的實驗介紹了新的環境,可供研究如何學習通信協議使用,並且提供了一系列的編程創新,對於這樣領域的成功有重要作用。
***
題目:通過梯度下降掌握梯度下降學習(Learning to learn by gradient descent by gradient descent)
作者:Marcin Andrychowicz, Misha Denil, Sergio Gomez, Matthew W. Hoffman, David Pfau, Tom Schaul, Nando de Freitas
摘要
本論文作者全部來自DeepMind。在機器學習領域,從手動設計特徵到學習特徵的轉變普遍獲得了成功。雖然如此,優化算法依然還是需要手動設計。本論文展示了優化算法的設計如何被塑造為一個學習問題,讓算法以一種自動的方式學習利用智能網絡中問題的結構。我們的學習算法在LSTM上實施以後,在受訓的任務上,表現要超出普通的手動設計特徵,在擁有類似結構的任務上表現也很好。我們在一系列任務上進行了嘗試,其中包括簡單的凸問題,訓練神經網絡和用art神經對圖像進行風格化。
***
題目:為小數據學習(one shot learning)匹配網絡(Matching Networks for One Shot Learning)
作者:Oriol Vinyals, Charles Blundell, Timothy Lillicrap, Koray Kavukcuoglu, Daan Wierstra
摘要
在機器學習中,從小量的樣本中進行學習依然是一個重大的難題。雖然最近在一些重要的領域,比如視覺和語言有一些進展,但是,標準的監督深度學習範式在從小數據上快速學習概念上並沒有提供一個令人滿意的解決方案。DeepMind的研究者在這項研究中,借鑑了基於深度神經特徵的度量學習(metric learning)和使用外部存儲的增強神經網絡中的概念。作者提出的框架學習了一個網絡,描繪了一個小型的標籤支持數據集和一個非標籤樣本,避免了在採納新的分類時進行調整的需要。然後,他們在視覺(使用Omniglot,ImageNet)和語言任務上對小數據學習進行了定義。作者的算法在ImageNet上把小數據學習的準確率從87.6%提升到了93.2%,在Omniglot上的準確率從88%提升到了93.8%。通過在Penn Treesbank上完成小數據任務,他們還展示了相同的模型在語音建模上的作用。
***
摘要
本文作者全部來自DeepMind,他們提出了一個新的方法,在訓練遞歸神經網絡時,可以減少時間算法中反向傳播(BPTT)的內存消耗。作者使用了動態編程來平衡即時結果的緩存與再計算之間的關係。這一算法幾乎能與幾乎所有用戶設定的內存預算相匹配,同時也可以找到一個優化的執行策劃,來實現計算成本的最小化。考慮到固定的內存預算在實際使用中無法避免的,計算設備在內存容量和 計算性能的表現上存在局限。他們為不同的計劃提供了漸進的計算最大值。作者提出的算法對於長序列尤為有效。對於長度達到1000的序列,我們的算法能降低95%的內存能耗,同時,與標準的BPTT相比,每個循環的時間只是原來的三分之一。
***
摘要
在本研究中,我們重新審視了Off-policy和基於返回的增強學習算法。通過在一個通用的表格中進行呈現,我們設計了一個新的算法Retrace(λ)。它有三個令人期待的屬性:1)方差低;2)安全;3)高效。根據我們的已有知識,這是第一個基於返回的 Off-Policy算法,在沒有GLIE假設的情況下,把a.s. 與Q 進行了結合。推論部分,我們證明了Watkins的 Q(λ)融合問題,這目前依然是一個開放的難題。此外,我們還描述了(λ)在一個標準的Atari 2600遊戲中的優勢。
***
題目:基於計算的開發和固有模擬內在動力二者的統一
作者:Marc G. Bellemare, Sriram Srinivasan, Georg Ostrovski, Tom Schaul, David Saxton, Remi Munos
摘要
我們研究了一個智能體在其所處環境中的不確定性,以及根據觀察了解這種不確定性是如何生成的。詳細地,我們聚焦於探索非列表數據中的增強學習。從內在動機文本獲得啟發,我們使用連續性的密度模型來衡量不確定性,並提出了一個新的算法,從一個任意的順序密度模型獲得一個偽計數(pseudo-count)。這一技巧能讓我們生成基於計數的開發算法,用於非列表的案例中。我們把這些偽計數轉化為內在回報,並在一系列難度較大的遊戲中獲得顯著的改進,其中包括著名的《復仇》。
***
題目:通往概念壓縮
作者:Karol Gregor, Frederic Besse, Danilo Jimenez Rezende, Ivo Danihelka, Daan Wierstra
摘要
我們引入了一個簡單遞歸變化的自動編碼架構,能顯著地提升圖像模型。這一系統代表了imageNet 和Omniglot 兩個資料庫中潛變量模型的最前沿水平。系統可以自然地把整體概念的信息從低水平的細節中區分出來,進而解決了非監督學習中的一個基礎性難題。此外,只存儲一個圖像的全局信息成為可能後,我們也獲得了更高質量的「概念壓縮」。
***
摘要
在複雜環境中進行有效地探索對於增強學習來說目前依然是一個巨大的挑戰。我們提出了自展DQN——一個簡單的算法,能通過使用隨機價值函數來探索計算和統計效率。與epsilon貪婪探索這些抖動策略不同, bootstrapped DQN執行的是暫時延伸(或者深度)探索,這在學習速度上可以帶來指數級的增長。我們在複雜的隨機馬爾科夫決策過程(MDPs)和大規模的Arcade 學習環境中展示了這些好處。在所有的Atari遊戲中,自展的DQN 顯著地提升了學習時間和表現。
好,既然已經看完谷歌 DeepMind 的這麼多篇論文,乘此機會提前看看 NIPS 2016 的活動日程。(如果你感興趣,會議現在正在註冊報名中。)
主旨演講
今年的NIPS,主旨演講都邀請了哪些人?
看官網,可以發現這樣的名單:Susan Holmes (Stanford), Kyle Cranmer (NYU), Saket Navlakha (Salk Institute), Drew Purves (Deep Mind), Marc Raibert (Boston Dynamics), Irina Rish (IBM)
7 位講者中,Facebook 的 Yann LeCun 不用介紹了。那麼,剩下的 6 位呢?
Yann LeCun:Facebook 人工智慧研究室(FAIR負責人)
Susan Holmes,史丹福大學統計學教授,BioX 成員,主要方向為複雜生物數據探索和可視化研究。著有《統計學與概率學》(Statistics and Probability)一書。
Kyle Cranmer 紐約大學物理系副教授
Saket Navlakha,沙克研究所,綜合生物學副教授。博士後就讀於卡內基梅隆大學。
Drew Purves:曾任職於微軟研究院,現谷歌DeepMind成員。研究方向:計算機生態和環境科學。
Marc Raibert:波士頓動力創始人,曾在卡內基梅隆(CMU)與MIT擔任教授,CMU Leg 實驗室創始人。
Irina Rish:IBM Watson 研究中心成員,研究方向是機器學習和神經科學及生物學
短期課程
目前NIPS2016 公布的短期課程及其組織者如下:
1. 通過策略優化進行深度強化學習,組織人:Pieter Abbeel(OpenAI, UC Berkeley)、John Schulman(OpenAI)
2. 大型優化:隨機梯度下降及凸性,組織人:Francis Bach(INRIA, ENS)、Suvrit Sra(MIT)
3. 變分推理的基礎及現代方法,組織人:David Blei(哥倫比亞大學)、Shakir Mohamed(Google Deepmind)、Rajesh Ranganath(普林斯頓大學)
4. 計算社會科學的自然語言處理,組織人:康奈爾大學 Cristian Danescu-Niculescu-Mizil、Lillian Lee
5. 生成對抗網絡,組織人:OpenAI Ian Goodfellow
6. 非靜態時間序列預測理論及算法,組織人:谷歌 Vitaly Kuznetsov、谷歌研究院 Mehryar Mohri
7. 人工智慧系統中的深度學習,組織人:吳恩達(Baidu、Stanford University)
8. 精準醫療的 MI 基礎及方法,組織人:約翰霍普金斯大學 Suchi Saria、Peter Schulam
9. 眾包:標籤生成及更多,組織人:微軟研究院 Jenn Wortman Vaughan
當然,短期課程內容還可能發生調整。演講者的演講題目以及其他 NIPS 2016 相關信息,請關注新智元後續報導。
新智元於7月11日啟動2016年【新智元100】人工智慧創業公司評選,在人工智慧概念誕生60周年之際,尋找中國最具競爭力的人工智慧創業企業。智能駕駛技術是汽車行業的重點發展方向之一,同時也是人工智慧相關產業創新落地的重要賽道之一。為此新智元聯合北京中汽四方共同舉辦「新智元Top10智能汽車創客大賽」,共同招募智能汽車相關優質創業公司,並聯合組織人工智慧技術專家、傳統汽車行業技術專家、關注智能汽車領域的知名風投機構,共同評審並篩選出Top 10進入決賽,在2016年10月16日「國際智能網聯汽車發展合作論壇」期間,進行路演、頒獎及展覽活動。點擊文章下方閱讀原文,在線填寫報名表。該報名表為參加評選必填資料。如有更多介紹資料(例如BP等),可發送至xzy100@aiera.com.cn,郵件標題請註明公司名稱。如有任何諮詢問題,可聯繫微信號Kunlin1201。長按二維碼關注新智元100,發現中國最具競爭力人工智慧初創企業