擁有解耦表徵的無監督學習是不可能的!硬核ICML 2019最佳論文出爐

2021-02-21 機器之心

機器學習頂級會議ICML 2019(國際機器學習大會)已於6月9日在美國加州開幕。本屆大會共收到3424篇論文投稿,其中774篇被接收(接收率為22.6%)。今日,大會放出了最佳論文。

今年有兩支團隊收穫了最佳論文的獎項,來自劍橋大學、科技公司 PROWLER.io 的《Rates of Convergence for Sparse Variational Gaussian Process Regression》與蘇黎世聯邦理工學院(ETH)、德國馬普所、谷歌大腦共同完成的《Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations》獲得了殊榮。

值得關注的是,ETH Zurich、谷歌大腦等機構的論文《挑戰無監督學習中解耦表徵的一般假設》提出了一個與此前學界普遍預測相反的看法:對於任意數據,擁有相互獨立表徵(解耦表徵)的無監督學習是不可能的!在大會上,獲獎論文的部分作者也現場進行了演講。

論文作者表示,根據這些理論,對於機器學習從業者來說,我們對於超參數的選擇是沒有經驗法則可言的,而在已有大量已訓練模型的情況下,無監督的模型選擇仍然是一個很大的挑戰。

谷歌還在一篇博客中表示,研究人員已對近期流行的 12,000 個無監督學習模型進行了評估,並發布了論文代碼及其中 10,000 個模型的解耦合預訓練模型,以便研究人員復現其成果。

項目連結:https://github.com/google-research/disentanglement_lib

最佳論文獎項

最佳論文 1:Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations

作者:Francesco Locatello、Stefan Bauer、Mario Lucic、Gunnar Rätsch、Sylvain Gelly、Bernhard Schölkopf、Olivier Bachem(蘇黎世聯邦理工學院、德國馬普所、谷歌大腦)

論文地址:https://arxiv.org/abs/1811.12359

無監督學習解耦表徵(disentangled representation)背後的關鍵思想是,真實數據是由一些變化的可解釋因素生成的,這些因素可以通過無監督學習算法恢復。在本文中,我們冷靜地審視了該領域的最新進展,並對一些常見的假設提出了質疑。

首先,我們從理論上證明,如果不對模型和數據進行歸納偏置,無監督學習解耦表徵基本是不可能的。然後,我們在 7 個不同數據集進行了可復現的大規模實驗,我們訓練了 12000 多個模型,包括一些主流方法和評估指標。

實驗結果表明,雖然不同的方法強制執行了相應損失「鼓勵」的屬性,但如果沒有監督,似乎無法識別完全解耦的模型。此外,增加的解耦似乎不會導致下遊任務學習的樣本複雜度的下降。

該研究結果表明,未來關於解耦合式學習的工作應該明確歸納偏置和(隱式)監督的作用,研究強制解耦習得表徵的具體效益,並考慮涵蓋多個數據集的可復現實驗設置。

最佳論文 2:Rates of Convergence for Sparse Variational Gaussian Process Regression

作者:David R. Burt、Carl E. Rasmussen、Mark van der Wilk(劍橋大學、PROWLER.io 公司)

論文地址:https://arxiv.org/abs/1903.03571

目前已有用於高斯過程後驗的極好變分近似方法,它們避免了數據集大小為 N 的 O(N^3) 縮放。這些變分近似將計算成本降至 O(NM^2),其中 M≪N 是歸納變量的數量,它概括了過程。

雖然計算成本在 N 中似乎是線性的,但該算法的真正複雜性取決於如何增加 M 以確保一定的近似質量。研究者描述了 KL 向後發散上限的行為,進而解決這個問題。研究表明,通過比 N 更慢地增長 M,KL 發散度很可能任意地變小。

一個非常有趣的例子是,對於具有常用平方指數核(Squared Exponential kernel)的 D 維正態分布輸入的回歸,M=O(log^DN) 就足夠了。研究結果表明,隨著數據集的增加,高斯過程後驗能夠以較小的代價真正地近似,並為在持續學習場景下如何增加 M 提供了具體的規則。

Test of time award

大會還公布了 Test of time award,獲得此獎項的是《Online Dictionary Learning for Sparse Coding》,這篇論文發表於 2009 年,作者為 Julien Mairal、Francis Bach、Jean Ponce、Guillermo Sapiro。

論文連結:https://apps.dtic.mil/dtic/tr/fulltext/u2/a513243.pdf

稀疏編碼,即將數據向量建模為基本元素的稀疏線性組合,被廣泛用於機器學習、神經科學、信號處理和統計領域。本文著重於學習基礎集,也就是字典,以使其適應特定數據。這種方法最近被證明對音頻和圖像處理領域的信號重建和分類非常有效。

基於隨機近似,本文提出了一種新的在線字典學習優化算法,該算法可以優雅地擴展到具有數百萬個訓練樣本的大型數據集。本文包括收斂性證明,以及在自然圖像上的實驗,結果表明與小型和大型數據集的經典批處理算法相比,本文提出的算法可以帶來更快的性能和更好的字典。

7 篇最佳論文提名獎

除了最佳論文與 Test of time Award 獎項,大會官方還公布了 7 篇最佳論文榮譽提名論文,分別為:

1. Analogies Explained: Towards Understanding Word Embeddings

作者:CarlAllen、Timothy Hospedales(愛丁堡大學)

論文地址:https://arxiv.org/pdf/1901.09813.pdf 

2. SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver

作者:Po-WeiWang、Priya L. Donti、Bryan Wilder、Zico Kolter(CMU、美國南加州大學、博世人工智慧研究中心)

論文地址:https://arxiv.org/pdf/1905.12149.pdf 

3. A Tail-Index Analysis of Stochastic Gradient Noise in Deep Neural Networks

作者:Umut Şimşekli、L, event Sagun、Mert Gürbüzbalaban(法國巴黎-薩克雷大學、瑞士洛桑聯邦理工學院、羅格斯商學院)

論文地址:https://arxiv.org/pdf/1901.06053.pdf 

4. Towards A Unified Analysis of Random Fourier Features

作者:Zhu Li,Jean-François Ton,Dino Oglic,Dino Sejdinovic(牛津大學、倫敦國王學院)

論文地址:https://arxiv.org/pdf/1806.09178.pdf 

5. Amortized Monte Carlo Integration

作者:Adam Golinski、Yee Whye Teh、Frank Wood、Tom Rainforth(牛津大學、英屬哥倫比亞大學)

論文地址:http://www.gatsby.ucl.ac.uk/~balaji/udl-camera-ready/UDL-12.pdf

6. Social Influence as Intrinsic Motivation for Multi-Agent Deep Reinforcement Learning

作者:Natasha Jaques、Angeliki Lazaridou、Edward Hughes、Caglar Gulcehre、Pedro A. Ortega、DJ Strouse、Joel Z. Leibo、Nando de Freitas(MIT、DeepMind、普林斯頓高等研究院)

論文地址:https://arxiv.org/pdf/1810.08647.pdf 

7. Stochastic Beams and Where to Find Them: The Gumbel-Top-k Trick for Sampling Sequences Without Replacement

作者:Wouter Kool、Herke van Hoof、Max Welling(阿姆斯特丹大學、荷蘭 ORTEC、加拿大 CIFAR)

論文地址:https://arxiv.org/pdf/1903.06059.pdf 

更多關於論文的錄取結果,可以訪問以下地址:

https://icml.cc/Conferences/2019/Schedule

ICML 2019 新變化

在公布了以上獲獎內容之後,ICML 程序主席之一 Ruslan Salakhutdinov 介紹了此屆 ICML 的兩個新變化:高風險高獎勵論文;提交代碼。

我們知道,如果很多論文存在灌水的現象,而一些具有全新創造性的新論文或者新方向的論文可能在評審過程中就會被拒。

所以 ICML 2019 為這樣的論文設計了 High Risk High Reward 特殊類別,也就是 5% 的接收論文屬於高風險高獎勵論文。

此外,ICML 2019 還公布了代碼提交情況。

ICML 大會今年做出的一項重要改變是:為了促進可復現性,委員會鼓勵提交的論文附帶代碼。根據大會公布的數據,首次出現的政策收穫了不錯的效果,在 3424 篇投稿中有 36% 的論文提交了代碼,而在 774 篇接收論文中有 67% 的論文附帶代碼。

如此高的比例,看來明年的投稿論文作者需要認真考慮附加代碼了。

市北·GMIS 2019全球數據智能峰會於7月19日-20日在上海市靜安區舉行。本次峰會以「數據智能」為主題,聚焦最前沿研究方向,同時更加關注數據智能經濟及其產業生態的發展情況,為技術從研究走向落地提供借鑑。

本次峰會設置主旨演講、主題演講、AI畫展、「AI00」數據智能榜單發布、閉門晚宴等環節,已確認出席嘉賓如下:

大會早鳥票已開售,我們也為廣大學生用戶準備了最高優惠的學生票,點擊閱讀原文即刻報名。

相關焦點

  • 港中文開源OpenSelfSup: Open-MMLab自監督表徵學習代碼庫
    本文作者:Xiaohang Zhanhttps://zhuanlan.zhihu.com/p/148782886本文已由原作者授權,不得擅自二次轉載前言自監督的表徵學習領域近幾個月來獲得了顯著的突破,特別是隨著Rotation Prediction, DeepCluster, MoCo, SimCLR等簡單有效的方法的誕生,大有超越有監督表徵學習的趨勢。
  • CICC科普欄目 |簡述表徵句子的3種無監督深度學習方法
    選自Medium作者:yonatan hadar機器之心編譯轉自:機器之心參與:Nurhachu Null、路本文介紹了三種用於表徵句子的無監督深度學習方法本文將介紹幾個用於句子表徵的無監督深度學習方法,並分享相關代碼。我們將展示這些方法在特定文本分類任務中作為預處理步驟的效果。分類任務用來展示不同句子表徵方法的數據基於從全球資訊網抓取的 10000 篇新聞類文章。分類任務是將每篇文章歸類為 10 個可能的主題之一(數據具備主題標籤,所以這是一個有監督的任務)。
  • CVPR 2020丨無監督動作遷移TransMoMo
    在CVPR 2020上,來自CMU、北京大學、清華大學、商湯研究院的研究者提出了一種無監督的人體動作遷移方法,為動作序列數據建模提供了新思路。該論文提出了一種新穎的動作重定向網絡(Motion Retargeting Network)設計,可以在二維關鍵點空間由無標註的網絡數據端到端地訓練。作者基於不變性設計了新的損失函數,從而賦予網絡無監督地解耦動作特徵表示的能力。
  • 【無監督學習最新研究】簡單的「圖像旋轉」預測,為圖像特徵學習提供強大監督信號
    因此,無監督語義特徵學習,即在不需要手動注釋工作的情況下進行學習,對於現今成功獲取大量可用的可視數據至關重要。在我們的研究中,我們打算通過這種方式學習圖像特徵:訓練卷積神經網絡來識別被應用到作為輸入的圖像上的二維旋轉。我們從定性和定量兩方面證明,這個看似簡單的任務實際上為語義特徵學習提供了非常強大的監督信號。
  • 突破 DeepMind為強化學習引入無監督輔助任務,人工智慧的Atari遊戲水平達到人類的9倍
    我們的強化學習代理已在 Atari 2600 遊戲和圍棋中實現了突破。但這些系統需要大量數據進行長時間訓練,我們一直致力於提高我們的通用學習算法,改變這一情況。我們在最近的論文《使用無監督輔助任務的強化學習》中提出了一種可以大大提高人工智慧代理學習速度和系統性能的方法。通過為代理在訓練過程中增加兩項額外的任務來增強標準的深度強化學習方法,我們的代理實現了更好的表現。
  • 一行命令跑評測,港中文MMLab開源自監督表徵學習代碼庫OpenSelfSup
    自監督表徵學習發展迅速,但也存在諸多問題。近日,香港中文大學多媒體實驗室(MMLab)和南洋理工大學的研究者開源了一套統一的自監督學習代碼庫 OpenSelfSup。近幾個月來自監督表徵學習領域獲得了顯著突破,特別是隨著 Rotation Prediction、DeepCluster、MoCo、SimCLR 等簡單有效的方法的誕生,自監督表徵學習大有超越有監督表徵學習的趨勢。
  • NeurIPS 2019最佳論文出爐,今年增設「新方向獎」,微軟華人學者獲經典論文獎
    另外大會的投稿數量、接收論文數量也創下了歷史新高,總共有1428篇文章被收錄。在NeurIPS 2019召開的第一天,大會評委公布了傑出論文獎和經典論文獎。大會評委還希望能夠避免一些效率低下、過於複雜的論文,推薦一些趨勢性的傑出文章,為此增設了傑出新方向論文獎,以表彰那些為未來研究提出新方向的傑出工作。此外,大會還推薦了另外4篇獲得最佳論文提名的文章。最佳論文今年分別各有一篇文章獲得傑出論文獎和傑出方向論文獎,另外各有兩篇獲得相應提名。
  • ICML 2021傑出論文公布!上交大校友折桂,田淵棟rebuttal加分論文獲榮譽提名
    榮譽提名獎之二:為什麼非對比自監督學習效果好?Chen、Surya Ganguli機構:FAIR,史丹福大學論文地址:http://proceedings.mlr.press/v139/tian21a.html一般而言,對比自監督學習(SSL)通過最小化同一數據點(正對)的兩個增強視圖之間的距離和最大化不同數據點(負對)的視圖來學習表徵,而最近的非對比SSL(如BYOL和SimSiam)的研究表明,在沒有負配對的情況下
  • 用Transformer振興CNN骨幹網絡,港大、騰訊等聯合提出視覺自監督表徵學習CARE
    自監督表徵學習近兩年十分火熱。機器學習界的三位泰鬥 Geoffroy Hinton、 Yann Lecun 、 Yoshua Bengio 一致認為自監督學習有望使 AI 產生類人的推理能力,其中 Hinton 與 Lecun 近兩年也在 ICML / NeurIPS 中發表自監督表徵學習的研究工作。
  • 深度森林第三彈:周志華組提出可做表徵學習的多層梯度提升決策樹
    今日,南京大學的馮霽、俞揚和周志華提出了多層梯度提升決策樹模型,它通過堆疊多個回歸 GBDT 層作為構建塊,並探索了其學習層級表徵的能力。此外,與層級表徵的神經網絡不同,他們提出的方法並不要求每一層都是可微,也不需要使用反向傳播更新參數。因此,多層分布式表徵學習不僅有深度神經網絡,同時還有決策樹!近十年來,深層神經網絡的發展在機器學習領域取得了顯著進展。
  • 乾貨 | 3分鐘讀完ICLR 2017最佳論文,谷歌佔據半壁江山
    素有深度學習屆頂會「無冕之王」之稱的第五屆國際學習表徵會議(ICLR 2017)在法國土倫舉行。
  • 曠視研究院入選論文亮點解讀!
    本文首次提出將實例時間一致性嵌入到當前的自監督學習範式中,並提出一種新穎的算法TKC(Temporal Knowledge Consistency)。TKC使用多個時序教師來代替原有的教師網絡,同時設計知識遷移模塊自適應地從多個教師網絡中學習表徵。TKC在標準的線性評估及各類下遊任務上相對於基線方法均有明顯提升。
  • 論文分享|學習無監督學習規則
    學習的更新規則UnsupervisedUpdate(;Ɵ)為了建立更新,在基本模型中每一層l的每一個神經i都有一個輸出hil(;Φ)。所有的更新網絡共享元參數Φ,並且hil只在無監督訓練階段評估。評估每一批數據的單元激活統計量在監督學習中被證明有幫助,同時在手工設計的無監督學習中也被證明。因此我們在每一個訓練批次中讓hil積累統計量。
  • 73歲Hinton老爺子構思下一代神經網絡:屬於無監督對比學習
    這類方法的設計初衷是,使表徵脫離輸入的不相關細節。Becker 和 Hinton 使用的優化互信息方法存在一定缺陷,因此後來 Pacannaro 和 Hinton 用一個判別式目標替換了它,在該目標中一個向量表徵必須在多個向量表徵中選擇對應的一個。
  • 深度學習論文TOP10,2019一季度研究進展大盤點
    過去的100多天裡,在深度學習領域,每天都有大量的新論文產生。所以深度學習研究在2019年開了怎樣一個頭呢?Open Data Science對第一季度的深度學習研究進行了盤點總結,推出了這一季度的十佳論文。一起來看看,TOP10都花落誰家吧。
  • 「神經網絡就像任性的小孩」港中文MMLab博士揭開OpenSelfSup自監督學習的秘密
    新智元邀請香港中文大學多媒體實驗室的詹曉航博士,為我們解讀關於自監督學習的歸納、思考和展望。自監督學習是指用於機器學習的標註(ground truth)源於數據本身,而非來自人工標註。如下圖,自監督學習首先屬於無監督學習,因此其學習的目標無需人工標註。其次,目前的自監督學習領域可大致分為兩個分支。
  • ACL 2020:微軟摘得最佳論文,Bengio論文獲時間檢驗獎,大陸論文量第二
    此次會議公布了最佳論文、最佳主題論文、最佳 demo 論文、時間檢驗獎等多個獎項。此外,大會官方也介紹了今年的接收論文、熱門研究主題等數據。ACL 2020 共收到投稿 3429 篇,創下了 ACL 投稿數量的新紀錄。此次會議共接收論文 779 篇,包括 571 篇長論文和 208 篇短論文,論文接收率為 22.7%。
  • 算法庫開源講座第三講:港中文在讀博士葛藝瀟主講無監督重識別算法庫OpenUnReID解析與開發實踐 | 公開課預告
    12月4日晚8點,算法庫開源講座第三講上線,由香港中文大學在讀博士葛藝瀟主講,主題為《無監督重識別算法庫OpenUnReID解析與開發實踐 》。近年來,在無監督學習的浪潮下,無監督及領域自適應的目標重識別任務也受到了大家的關注。
  • ICLR 2017深度學習(提交)論文匯總:NLP、無監督學習、自動編碼、RL、RNN(150論文下載)
    加盟新智元,與人工智慧業界領袖攜手改變世界。【新智元導讀】ICLR 2017 將於2017年4月24日至26日在法國土倫(toulon)舉行,11月4日已經停止接收論文。本文匯總了本年度NLP、無監督學習、對抗式生成、自動編碼、增強學習、隨機循環梯度漸變、RNN等多個領域的150篇論文。其中不乏Yoshua Bengio、Ian Goodfellow、Yann LeCun、李飛飛、鄧力等學者的作品。從收錄的論文主題來看,生成和對抗生成式網絡的研究成為熱點,一共有45篇論文被提交,數量排在第一。文內附下載。
  • ICML 2019收錄774篇論文:谷歌153篇,清華北大26篇
    曉查 發自 凹非寺 量子位 報導 | 公眾號 QbitAI機器學習領域頂級學術會議ICML 2019將於6月10日-15日在美國加州長灘舉辦