ICML進行時|一文看盡獲獎論文及Google、Facebook、微軟、騰訊的最新科研成果

2021-02-15 人工智慧頭條

編輯 | 姍姍

出品 | 人工智慧頭條(公眾號ID:AI_Thinker)


【導讀】 ICML ( International Conference on Machine Learning),國際機器學習大會如今已發展為由國際機器學習學會(IMLS)主辦的年度機器學習國際頂級會議。今天,第35屆 ICML 大會在瑞典的斯德哥爾摩正式召開,與大家一同分享這一領域在這一年裡的突破。ICML 2018 共有 2473 篇論文投稿,共有 621 篇論文殺出重圍入選獲獎名單,接受率接近25%。其中 Google 強勢領跑,Deep Mind 、FaceBook和微軟也是精彩紛呈;而在高校中 UC Berkeley 和 Stanford 、CMU 以近 30 篇榮登 Top 榜。


而今年不得不說咱們國內的成績,雖然清華被收錄了 12 篇,相比之下還是有差距,不過相比往年的數量和今年如此激烈的競爭下,進步是不可忽視的,尤其是今年復旦大學的一篇論文與 DeepMind、史丹福大學的兩篇論文一同獲得 Runner Up 獎,騰訊 AI Lab 也是有超十篇論文被收錄,都讓我們對國內研究抱有更多的期待,也相信國內的研究所與高校在人工智慧領域的基礎性研究方面會取得更驕人的成績。

會議巡講 Schedule

Tutorial Session 是後續主要技術開始前的教程日

後續三天就是主要技術的精彩紛呈,涉及了深度學習、強化學習、有限學習、變分貝葉斯、優化方法、自動機器學習等內容。

論文收集錄



最佳論文1:來自 MIT 的 Anish Athalye 與來自 UC Berkely 的 Nicholas Carlini 和 David Wagner 獲得了最佳論文。該研究定義了一種被稱為「混淆梯度」(obfuscated gradients)的現象。在面對強大的基於優化的攻擊之下,它可以實現對對抗樣本的魯棒性防禦。早在今年 2 月,這項研究攻破了 ICLR 2018 七篇對抗樣本防禦論文的研究,曾一度引起了深度學習社區的熱烈討論。



論文連結:

https://arxiv.org/abs/1802.00420

項目連結:

https://github.com/anishathalye/obfuscated-gradients


最佳論文2:來自 UC Berkeley EECS 的 Lydia T. Liu、Sarah Dean、Esther Rolf、Max Simchowitz 和 Moritz Hardt 的論文同樣也獲得了最佳論文獎。在這個研究中,關注機器學習公平性的靜態分類標準如何與暫時的利益指標相互作用。總結了三個標準準則的延遲影響,強調評估公平性準則的度量和時序建模的重要性等一系列的新挑戰和權衡問題。



論文連結:

https://arxiv.org/abs/1803.04383


Runner Up 論文

Runner UP 論文1:復旦大學數據科學學院副教授黃增峰完成的在線流(online streaming)算法與 DeepMind、史丹福大學的兩篇論文共同獲得 Runner Up 獎。在該論文討論的這種在線流算法可以在只有非常小的協方差誤差的情況下,從大型矩陣抽取出最能近似它的小矩陣。



論文地址:

http://203.187.160.132:9011/www.cse.ust.hk/c3pr90ntc0td/~huangzf/ICML18.pdf


Runner UP 論文2:來自 DeepMind 和牛津大學的研究者在研究中開發了新的技術來理解和控制一般博弈中的動態。主要的結果是將二階動態分解為兩個部分。第一個和潛博弈(potential game)相關;第二個和哈密頓博弈相關,這是一種新的博弈類型,遵循一種守恆定律——類似於經典力學系統中的守恆定律。




論文地址:

https://arxiv.org/abs/1802.05642

Runner UP 論文3:來自史丹福大學的研究者在研究中首先展示了為解決經驗風險最小化(ERM)使最初公平的模型也變得不公平了這一問題,提出了一種基於分布式魯棒優化(distributionally robust optimization,DRO)的方法,可以最小化所有分布上的最大風險,使其接近經驗分布。


論文地址:

https://arxiv.org/abs/1806.08010


頒發的兩項最佳論文獎來表彰一些最有前途的論文技術方案的研究。最好的論文還將被邀請參加《機器學習雜誌》。


國內未來可期

而今年騰訊 AI Lab也是取得了十餘篇入選的好成績,相比去年的 4 篇入選,這個成績不僅是國內企業研究、高校研究的榜首,在國際排名上也是有了很大的進步。


在十餘篇的研究中,主要分為三類:新模型與新框架、分布式與去中心化及機器學習的理論研究與優化方法。本次為大家介紹三種新模型與新框架。


用於強化學習的基於反饋的樹搜索

研究者還使用深度神經網絡實現了這種基於反饋的樹搜索算法並在《王者榮耀》1v1 模式上進行了測試。為了進行對比,研究者訓練了 5 個操控英雄狄仁傑的智能體,結果他們提出的新方法顯著優於其它方法。


論文連結:

https://arxiv.org/abs/1805.05935


通過學習遷移實現遷移學習


遷移學習的三個核心研究問題是:何時遷移、如何遷移和遷移什麼。為特定的遷移任務選擇合適的遷移算法往往需要高成本的計算或相關領域的專業知識。為了能更有效地找到適合當前任務的遷移算法,研究者根據人類執行遷移學習的方式,設計了一種可根據之前的遷移學習經歷提升新領域之間的遷移學習有效性的新框架:學習遷移(L2T:Learning to Transfer)。


論文地址:

https://ai.tencent.com/ailab/media/publications//icml/148_Transfer_Learning_via_Learning_to_Transfer.pdf


通過強化學習實現端到端的主動目標跟蹤

目標跟蹤的目標是根據視頻的初始幀中的目標標註定位該目標在連續視頻中的位置。對於移動機器人和無人機等視角會變動的平臺或目標會離開當前拍攝場景的情況,跟蹤目標時通常還需要對攝像頭的拍攝角度進行持續調整。該論文提出了一種使用強化學習的端到端的主動目標跟蹤方法,可直接根據畫面情況調整攝像頭角度。具體而言,研究者使用了一個 ConvNet-LSTM 網絡,其輸入為原始視頻幀,輸出為相機運動動作(前進、向左等)。



上圖展示了這個 ConvNet-LSTM 網絡的架構,其中的強化學習部分使用了一種當前最佳的強化學習算法 A3C。因為在現實場景上訓練端到端的主動跟蹤器還無法實現,所以研究者在 ViZDoom 和 Unreal Engine 進行了模擬訓練。

論文地址:

https://arxiv.org/abs/1705.10561

更多詳細論文解讀可以參考學習:

https://ai.tencent.com/ailab/paper-list.html

https://mp.weixin.qq.com/s/xpX7eDG5ivk8ZYRjAEsH5g

▌國外大咖雲集

Google AI & Deep Mind

這個數量多到不知道幾時人工智慧頭條才能給大家推薦完,無論是機器學習理論,深度學習、強化學習、經典算法都有研究,利用架構與工具在語音、語言、翻譯、音樂、視覺處理等領域也都有解決的的問題與挑戰。只能說 Google 真是高度活躍在方方面面,有質有量,不愧是本屆大會的白金贊助商。屆時 Google 還將與大家分享 TensorFlow、Magenta等項目的最新工作,開展有關機器學習、強化學習等相關專題研討會。DeepMind 於近日提出的多智能體的教程也將會在大會於大家進行分享,人工智慧頭條也在上周為大家介紹過這個最新研究。


Google 論文收錄與研討會:

https://ai.googleblog.com/2018/07/google-at-icml-2018.html?m=1

Deep Mind 論文收錄與研討會:

https://deepmind.com/blog/deepmind-papers-icml-2018


Microsoft

本屆 ICML 大會微軟通過26篇論文,一個個人健康機器學習的教程與兩個研討會;研究中涉及通過緊湊的潛在空間聚類進行半監督學習、提出 Katyusha X 的簡單動量方法、GAN、SBEED(收斂強化學習)、探索加速 CNN 的隱藏維度、增強 CycleGAN等理論與算法的研究。兩個研討會的主題分別關於個性化AI 與 FAIM『18 Causal ML。


Microsoft 論文收錄與研討會:

https://deepmind.com/blog/deepmind-papers-icml-2018


Facebook


FaceBook 收錄作品的數量與 Google、DeepMind 、微軟相比較少,不過在神經機器翻譯、人工智慧代理、強化學習、語音、端到端的對話模型、GAN及多智能體的強化學習等領域也都有出色的研究。在強化學習中引入 SCAL 算法並證明顯著優於現有的 UCRL、PSRL 等算法;在具有 Attention 機制的RNN網絡中很多使用簡單形式的編碼器,Facebook 在研究中提出了一種聚焦 RNN 編碼器的機制,用於序列建模任務,用於根據需要關注輸入的關鍵部分,在合成任務上有更好的改進;在多智能體的強化學習中提出 SOM (Self Other-Modeling)的方法,在三個不同任務上評估此方法,表明代理能夠在合作與對抗環境中使用它們對其他玩家隱藏狀態的估計來學習更好的策略。除了理論研究、方法的創新,在本屆大會,Facebook 也組織了一場研討會,和大家一起一起探討在強化學習中的預測模型與強化模型。


Facebook 論文收錄與研討會:

https://research.fb.com/facebook-research-at-icml-2018


結束語

直播已經開始,人工智慧頭條先去前方為大家收集情況,精彩內容後續為大家報導。點擊 閱讀原文 可獲取直播連結。

最後為大家精心整理本次大會的時間表、收錄論文地址及工作坊&研討會概述,只需此一文在手,收盡 ICML 大會所有。


ICML 2018 大會時間表:

https://icml.cc

ICML 2018 收錄論文:

https://icml.cc/Conferences/2018/Schedule?type=Poster

ICML 2018 工作坊 & 研討會:

https://icml.cc/Conferences/2018/Schedule?type=Workshop

https://icml.cc/Conferences/2018/WorkshopsOverview

本文由人工智慧頭條編譯,如需轉載請聯繫小助手(微信號:csdnai)

——【完】——

時間:7月12日 20:00-21:00

掃描海報二維碼,免費報名

添加微信csdnai,備註:公開課,加入課程交流群

相關焦點

  • ICML 2018 | 清華排名國內居首:大會論文接收情況一覽
    Robbie Allen 對該會議的論文進行了統計,發現騰訊 AI Lab 張潼中了 8 篇論文;按機構而言,谷歌遙遙領先,國內機構清華被接收論文數量名列榜首。我們公司的首席科學家 Lawrence Carin 博士是世界上最多產的人工智慧研究人員之一,所以對我來說,能夠看到活躍在這一領域的其他研究人員與公司的行業動態很有意思。今年,ICML 共有 2473 篇論文被提交,621 篇被接收,接收率為 25.1%,與去年的 1676 篇提交數量相比,今年提交的論文數量增加了 47%(接收率仍保持在 25%左右)。
  • ICML 2019論文接收結果可視化:清華、北大、南大榜上有名
    接收論文列表:https://icml.cc/Conferences/2019/AcceptedPapersInitial排名前50的論文貢獻機構下圖顯示了ICML 2019接收論文貢獻排名前50的機構。排名以機構貢獻的論文總數為準,至少有一名作者隸屬於該機構,因此一篇論文可能出現在多個機構中。
  • 幾個主要機構在ICML 2019投遞的論文中重點關注的方向
    60 篇,署名 Google 的論文總數高達104篇,科研實力可見一斑。特別要提出的是,相比於 ICML 2018,國內的研究成果有著顯著地進步,清華大學以一作論文 14 篇的成績位居第 9 名,北京大學也進入了前 20 名的行列。雖然與國外高校還存在一定的差距,但這樣的進步讓我們看到了國內大學在人工智慧領域不斷的努力與探索。 國內高校論文接收情況對比 接下來重點看一下國內的研究成績單。
  • 一文速覽ICML2020高引論文與華人作者
    接下來讓我們看看截至目前引用量較高的本次 ICML 會議論文以及中國機構和華人的表現吧。ICML AMiner:https://www.aminer.cn/conf/icml2020ICMl2020高引用量的論文Aminer 開發的 ICML 2020 頂會系統給出了本屆會議引用量排名靠前的論文。
  • 一文盡覽 ICLR 2019 Facebook & Google 入選論文
    其中,Facebook 戰果滿滿,一共有 23 篇論文入選。值得注意的是,2018 年圖靈獎得主 Yann LeCun 是其中兩篇入選論文的共同作者之一。Facebook 人工智慧研究院研究員、圍棋項目負責人田淵棟博士也參與了其中兩篇論文的寫作。而一直備受關注的 Google 在今年也有 57 篇論文入選了 ICLR 2019,其中,oral 論文有三篇。
  • 大會丨青年科研工作者眼中的ICML 2018
    編者按:上個月,機器學習領域頂級會議ICML在美麗的瑞典城市斯德哥爾摩召開,微軟亞洲研究院機器學習組實習生趙志冰參與了這次盛會,今天他從一位青年科研工作者的視角
  • ICML 2019最佳論文出爐 ETH、谷歌、劍橋分獲大獎
    論文錄取結果地址:https://icml.cc/Conferences/2019/AcceptedPapersInitial?)的論文,對近年來絕大多數的非監督解耦表示方法進行了探索、利用 2.5GPU 年的算力在 7 個數據集上訓練了 12000 多個模型。
  • 不被Hinton認同,否定同行成果,谷歌這篇研究拿下ICML最佳論文
    詳細看今年的最佳研究:最佳論文1:分離式表徵,沒法無監督學習先用一句話概括一下:谷歌大腦、ETH蘇黎世、馬普所組成的團隊測試了12,000個模型,對現有的無監督分離式表徵學習研究,發出了嚴重的質疑。當MN時,真正稀疏的非參數推斷仍然可以提供對邊界似然性和逐點後驗的可靠估計。本文作者在最後指出,具有非共軛可能性的模型的擴展,尤其是在Hensman等人的框架中由稀疏性引入的附加誤差,為未來的研究提供了一個有前景的方向。
  • 清華大四本科生2篇一作論文入選ICML 2020,後浪果然翻湧
    入選論文創新高,共有1088篇論文突出重圍。然而,接收率卻是一年比一年低,這次僅為21.8%(去年為22.6%,前年為24.9%)。從整個榜單上看,谷歌仍為最強實力機構,共有138篇收錄(數據包含谷歌大腦、DeepMind)。
  • ICML 2019收錄774篇論文:谷歌153篇,清華北大26篇
    據統計,今年大會收到3424份提交申請,共有774篇論文被收錄,接收率為22.6%。一位來自博世公司的網友Andreas Doerr對這份名單按作者和機構進行了分類統計。由於圖片尺寸較大,我們只展示其中一部分。
  • 程式設計師:想去google英語不行可以麼?google員工:有免費外教!
    在國內,有相當一部分程式設計師們心目中比較理想的公司就是百度,騰訊,阿里這些大公司了,認為他們就是公司中的北大,清華了。當然也有一些程式設計師把目標放在了google,微軟,facebook這些公司。
  • 指導學生創業可算科研成果和論文
    文/江南都市報全媒體記者廖濟堂    大學生是創新創業主力軍,但高校系統化的創新創業教育才剛起步,一直以來,我省高校都缺乏專業、專職的創新創業教師,很大程度上是因為激勵力度不夠,教師動力不足。江西中醫藥大學去年專門出臺規定,教師指導學生創業獲獎,可計入科研成果、可抵核心期刊論文。
  • 看不懂ICML的複雜論文?關於這場會議你至少要知道這四點
    今天就來簡單看一下,今年ICML上四個有趣的現象。現象一:深度學習、強化學習成最熱門領域作為學術會議,人們最關注的還是ICML上討論的課題和入選論文。或許是因為這兩年機器學習的火熱,今年ICML一共評審了1676篇論文,其中有434篇都被收錄,這兩個數字都遠遠高於往年。
  • Technobombs.com:Google+.vs Facebook
    我大致翻譯下:google circles vs facebook friends list(google圈子 vs facebook從這兩點上講,google圈子為5顆星,而facebook則略遜一籌。Google + hangout vs facebook視頻聊天google的hangout支持最多10人的群視頻聊天,且可以自動對焦發言者,而facebook則不行,且不支持Linux。
  • 近期必讀的六篇 ICML 2020【對比學習】相關論文
    當只對1%的標籤進行微調時,我們達到了85.8%的TOP-5準確率,在標籤減少100倍的情況下表現優於AlexNet。代碼: https://github.com/google-research/simclr網址:https://proceedings.icml.cc/paper/2020/hash/36452e720502e4da486d2f9f6b48a7bb
  • 任芳教科研成果獲獎項目名稱及等級
    教科研成果獲獎項目名稱及等級:  任芳勤於學習研究,學術成果豐碩。主持了多項全國和陝西省教育科學規劃重點課題、委託課題研究項目,出版(發表)專著、論文多部(篇)。,《財務管理》被列入「十一五」國家級規劃教材  2012年《管理會計學》 第一主編 本科教材 北京出版社 2012年4月 第1版  2012年 《會計學基礎》 第一主編 本科教材 北京出版社 2012年5月 第1版  2011年6月出版《中國民辦高等院校可持續發展問題研究》.北京出版集團公司  2009年11月,刊登在《光明日報》上的「民辦高等教育發展的經濟學分析」一文
  • ICML 2019必看!87頁超強幹貨博士筆記總結
    提交論文最多的子領域分別是:深度學習、通用機器學習、強化學習、優化等論文數量排名前五的公司分別是谷歌、谷歌大腦、微軟、DeepMind、Facebook,論文數量分別為:82、42、35、29、23。最終谷歌獨攬153篇,成為ICML論文收錄第一。
  • 硬核ICML 2019最佳論文出爐
    值得關注的是,ETH Zurich、谷歌大腦等機構的論文《挑戰無監督學習中解耦表徵的一般假設》提出了一個與此前學界普遍預測相反的看法:對於任意數據,擁有相互獨立表徵(解耦表徵)的無監督學習是不可能的!在大會上,獲獎論文的部分作者也現場進行了演講。
  • 成立5 周年:一文覽盡 Facebook 人工智慧研究院歷年重要成果
    他們的團隊經常對外發布前沿的研究成果,並且儘可能對外開源研究代碼、數據集和工具(如 PyTorch 、 fastText 、 FAISS 和 Detectron)。他們的這些努力成功推進了人工智慧研究的發展。
  • 機器學習頂會ICML 2018:復旦大學副教授獲最佳論文亞軍 騰訊清華...
    今年ICML 2018共入圍621篇論文,我國騰訊、清華、北大等研究機構也在論文入選排行榜上佔據一席之地。此外,除非可以顯著提高矩陣乘法的最新運行時間,否則我們算法的運行時間是近似最優的。根據圖中列出的25個機構,有23個都是學術機構,僅有谷歌和微軟研究院屬於企業研究機構。我國只有清華擠入一作論文排行榜單。