編輯 | 姍姍
出品 | 人工智慧頭條(公眾號ID:AI_Thinker)
【導讀】 ICML ( International Conference on Machine Learning),國際機器學習大會如今已發展為由國際機器學習學會(IMLS)主辦的年度機器學習國際頂級會議。今天,第35屆 ICML 大會在瑞典的斯德哥爾摩正式召開,與大家一同分享這一領域在這一年裡的突破。ICML 2018 共有 2473 篇論文投稿,共有 621 篇論文殺出重圍入選獲獎名單,接受率接近25%。其中 Google 強勢領跑,Deep Mind 、FaceBook和微軟也是精彩紛呈;而在高校中 UC Berkeley 和 Stanford 、CMU 以近 30 篇榮登 Top 榜。
而今年不得不說咱們國內的成績,雖然清華被收錄了 12 篇,相比之下還是有差距,不過相比往年的數量和今年如此激烈的競爭下,進步是不可忽視的,尤其是今年復旦大學的一篇論文與 DeepMind、史丹福大學的兩篇論文一同獲得 Runner Up 獎,騰訊 AI Lab 也是有超十篇論文被收錄,都讓我們對國內研究抱有更多的期待,也相信國內的研究所與高校在人工智慧領域的基礎性研究方面會取得更驕人的成績。
▌會議巡講 Schedule
Tutorial Session 是後續主要技術開始前的教程日
後續三天就是主要技術的精彩紛呈,涉及了深度學習、強化學習、有限學習、變分貝葉斯、優化方法、自動機器學習等內容。
▌論文收集錄
最佳論文1:來自 MIT 的 Anish Athalye 與來自 UC Berkely 的 Nicholas Carlini 和 David Wagner 獲得了最佳論文。該研究定義了一種被稱為「混淆梯度」(obfuscated gradients)的現象。在面對強大的基於優化的攻擊之下,它可以實現對對抗樣本的魯棒性防禦。早在今年 2 月,這項研究攻破了 ICLR 2018 七篇對抗樣本防禦論文的研究,曾一度引起了深度學習社區的熱烈討論。
論文連結:
https://arxiv.org/abs/1802.00420
項目連結:
https://github.com/anishathalye/obfuscated-gradients
最佳論文2:來自 UC Berkeley EECS 的 Lydia T. Liu、Sarah Dean、Esther Rolf、Max Simchowitz 和 Moritz Hardt 的論文同樣也獲得了最佳論文獎。在這個研究中,關注機器學習公平性的靜態分類標準如何與暫時的利益指標相互作用。總結了三個標準準則的延遲影響,強調評估公平性準則的度量和時序建模的重要性等一系列的新挑戰和權衡問題。
論文連結:
https://arxiv.org/abs/1803.04383
▌Runner Up 論文
Runner UP 論文1:復旦大學數據科學學院副教授黃增峰完成的在線流(online streaming)算法與 DeepMind、史丹福大學的兩篇論文共同獲得 Runner Up 獎。在該論文討論的這種在線流算法可以在只有非常小的協方差誤差的情況下,從大型矩陣抽取出最能近似它的小矩陣。
論文地址:
http://203.187.160.132:9011/www.cse.ust.hk/c3pr90ntc0td/~huangzf/ICML18.pdf
Runner UP 論文2:來自 DeepMind 和牛津大學的研究者在研究中開發了新的技術來理解和控制一般博弈中的動態。主要的結果是將二階動態分解為兩個部分。第一個和潛博弈(potential game)相關;第二個和哈密頓博弈相關,這是一種新的博弈類型,遵循一種守恆定律——類似於經典力學系統中的守恆定律。
論文地址:
https://arxiv.org/abs/1802.05642
Runner UP 論文3:來自史丹福大學的研究者在研究中首先展示了為解決經驗風險最小化(ERM)使最初公平的模型也變得不公平了這一問題,提出了一種基於分布式魯棒優化(distributionally robust optimization,DRO)的方法,可以最小化所有分布上的最大風險,使其接近經驗分布。
論文地址:
https://arxiv.org/abs/1806.08010
頒發的兩項最佳論文獎來表彰一些最有前途的論文技術方案的研究。最好的論文還將被邀請參加《機器學習雜誌》。
▌國內未來可期
而今年騰訊 AI Lab也是取得了十餘篇入選的好成績,相比去年的 4 篇入選,這個成績不僅是國內企業研究、高校研究的榜首,在國際排名上也是有了很大的進步。
在十餘篇的研究中,主要分為三類:新模型與新框架、分布式與去中心化及機器學習的理論研究與優化方法。本次為大家介紹三種新模型與新框架。
用於強化學習的基於反饋的樹搜索
研究者還使用深度神經網絡實現了這種基於反饋的樹搜索算法並在《王者榮耀》1v1 模式上進行了測試。為了進行對比,研究者訓練了 5 個操控英雄狄仁傑的智能體,結果他們提出的新方法顯著優於其它方法。
論文連結:
https://arxiv.org/abs/1805.05935
通過學習遷移實現遷移學習
遷移學習的三個核心研究問題是:何時遷移、如何遷移和遷移什麼。為特定的遷移任務選擇合適的遷移算法往往需要高成本的計算或相關領域的專業知識。為了能更有效地找到適合當前任務的遷移算法,研究者根據人類執行遷移學習的方式,設計了一種可根據之前的遷移學習經歷提升新領域之間的遷移學習有效性的新框架:學習遷移(L2T:Learning to Transfer)。
論文地址:
https://ai.tencent.com/ailab/media/publications//icml/148_Transfer_Learning_via_Learning_to_Transfer.pdf
通過強化學習實現端到端的主動目標跟蹤
目標跟蹤的目標是根據視頻的初始幀中的目標標註定位該目標在連續視頻中的位置。對於移動機器人和無人機等視角會變動的平臺或目標會離開當前拍攝場景的情況,跟蹤目標時通常還需要對攝像頭的拍攝角度進行持續調整。該論文提出了一種使用強化學習的端到端的主動目標跟蹤方法,可直接根據畫面情況調整攝像頭角度。具體而言,研究者使用了一個 ConvNet-LSTM 網絡,其輸入為原始視頻幀,輸出為相機運動動作(前進、向左等)。
上圖展示了這個 ConvNet-LSTM 網絡的架構,其中的強化學習部分使用了一種當前最佳的強化學習算法 A3C。因為在現實場景上訓練端到端的主動跟蹤器還無法實現,所以研究者在 ViZDoom 和 Unreal Engine 進行了模擬訓練。
論文地址:
https://arxiv.org/abs/1705.10561
更多詳細論文解讀可以參考學習:
https://ai.tencent.com/ailab/paper-list.html
https://mp.weixin.qq.com/s/xpX7eDG5ivk8ZYRjAEsH5g
▌國外大咖雲集
Google AI & Deep Mind
這個數量多到不知道幾時人工智慧頭條才能給大家推薦完,無論是機器學習理論,深度學習、強化學習、經典算法都有研究,利用架構與工具在語音、語言、翻譯、音樂、視覺處理等領域也都有解決的的問題與挑戰。只能說 Google 真是高度活躍在方方面面,有質有量,不愧是本屆大會的白金贊助商。屆時 Google 還將與大家分享 TensorFlow、Magenta等項目的最新工作,開展有關機器學習、強化學習等相關專題研討會。DeepMind 於近日提出的多智能體的教程也將會在大會於大家進行分享,人工智慧頭條也在上周為大家介紹過這個最新研究。
Google 論文收錄與研討會:
https://ai.googleblog.com/2018/07/google-at-icml-2018.html?m=1
Deep Mind 論文收錄與研討會:
https://deepmind.com/blog/deepmind-papers-icml-2018
Microsoft
本屆 ICML 大會微軟通過26篇論文,一個個人健康機器學習的教程與兩個研討會;研究中涉及通過緊湊的潛在空間聚類進行半監督學習、提出 Katyusha X 的簡單動量方法、GAN、SBEED(收斂強化學習)、探索加速 CNN 的隱藏維度、增強 CycleGAN等理論與算法的研究。兩個研討會的主題分別關於個性化AI 與 FAIM『18 Causal ML。
Microsoft 論文收錄與研討會:
https://deepmind.com/blog/deepmind-papers-icml-2018
FaceBook 收錄作品的數量與 Google、DeepMind 、微軟相比較少,不過在神經機器翻譯、人工智慧代理、強化學習、語音、端到端的對話模型、GAN及多智能體的強化學習等領域也都有出色的研究。在強化學習中引入 SCAL 算法並證明顯著優於現有的 UCRL、PSRL 等算法;在具有 Attention 機制的RNN網絡中很多使用簡單形式的編碼器,Facebook 在研究中提出了一種聚焦 RNN 編碼器的機制,用於序列建模任務,用於根據需要關注輸入的關鍵部分,在合成任務上有更好的改進;在多智能體的強化學習中提出 SOM (Self Other-Modeling)的方法,在三個不同任務上評估此方法,表明代理能夠在合作與對抗環境中使用它們對其他玩家隱藏狀態的估計來學習更好的策略。除了理論研究、方法的創新,在本屆大會,Facebook 也組織了一場研討會,和大家一起一起探討在強化學習中的預測模型與強化模型。
Facebook 論文收錄與研討會:
https://research.fb.com/facebook-research-at-icml-2018
▌結束語
直播已經開始,人工智慧頭條先去前方為大家收集情況,精彩內容後續為大家報導。點擊 閱讀原文 可獲取直播連結。
最後為大家精心整理本次大會的時間表、收錄論文地址及工作坊&研討會概述,只需此一文在手,收盡 ICML 大會所有。
ICML 2018 大會時間表:
https://icml.cc
ICML 2018 收錄論文:
https://icml.cc/Conferences/2018/Schedule?type=Poster
ICML 2018 工作坊 & 研討會:
https://icml.cc/Conferences/2018/Schedule?type=Workshop
https://icml.cc/Conferences/2018/WorkshopsOverview
本文由人工智慧頭條編譯,如需轉載請聯繫小助手(微信號:csdnai)
——【完】——
時間:7月12日 20:00-21:00
掃描海報二維碼,免費報名
添加微信csdnai,備註:公開課,加入課程交流群