ICML 2019最佳論文:測試12000個模型後,谷歌質疑現有無監督分離式表徵學習

2021-02-19 大數據文摘

大數據文摘出品

當地時間6月12日,ICML 2019於美國長灘市公布了本屆大會最佳論文結果。


谷歌大腦、MaxPlanck和蘇黎世聯邦理工學院合作的《挑戰無監督分離式表徵的常見假設》,以及劍橋大學的一篇《稀疏變分高斯過程回歸的收斂速率》作為最佳論文摘得桂冠。另外,還有七篇論文獲得提名獎。


今年的論文錄取競爭異常激烈,ICML 2019共提交了3424篇論文,其中錄取774篇,論文錄取率為22.6%。錄取率較去年ICML 2018的25%有所降低。



ICML 2019接收論文貢獻數排名前50的機構(學界機構和業界機構)


論文錄取結果地址:

https://icml.cc/Conferences/2019/AcceptedPapersInitialfbclid=IwAR0zqRJfPz2UP7dCbZ8Jcy7MrsedhasX13ueqkKl934EsksuSj3J2QrrRAQ


第一篇最佳論文的作者來自蘇黎世聯邦理工學院(ETH Zurich)、MaxPlanck 智能系統研究所及谷歌大腦。


深度學習的一個重要挑戰是用無監督學習的方式理解現有數據。目前主要提出的方法是一個利用分離式表徵 (disentangled representation) 的模型,它可以捕捉到各種相互獨立的特徵,如果其中一個特徵改變了,其他特徵不會受到影響。


而該團隊測試了12,000個模型之後,對現有無監督分離式表徵學習研究發出了嚴重的質疑。


首先,並沒有發現任何經驗證據,顯示無監督方法可以學到可靠的分離式表徵,因為隨機種子和超參數似乎比模型的選擇更重要。也就是說,就算訓練了大量的模型,一部分可以得出分離式表徵,也很難在不看標籤的情況下就把這些表徵找出來。


其次,在參加評估的模型和數據集上,分離式表徵並不一定對後續任務有幫助,結果表明用了分離式表徵也不等於說AI就可以用更少的標註來學習。


最後,論文給研究者提出建議,因為根據檢測結果,不帶歸納偏置 (Inductive Biases) 的無監督學習的分離式表徵是不可能實現的,未來的研究應該清楚地描述出歸納偏置,以及隱式和顯式的監督方式。


論文地址:

http://proceedings.mlr.press/v97/locatello19a/locatello19a.pdf



這篇最佳論文是來自英國劍橋大學和機器學習平臺Prowler.io的研究。論文名稱為《稀疏高斯過程回歸變分的收斂速度》(Rates of Convergence for Sparse Variational Gaussian Process Regression)。此論文的工作是證明了稀疏GP回歸變分近似到後驗變分近似的KL發散的界限,該界限僅依賴於先驗核的協方差算子的特徵值的衰減。


     

論文地址:

https://arxiv.org/pdf/1903.03571.pdf


這篇論文的第一作者是來自劍橋大學信息工程系的博士研究生David Burt,其主要研究領域是貝葉斯非參數和近似推理。另一位作者是Mark van der Wilk,劍橋大學機器學習專業的在讀博士研究生,主要的研究領域是貝葉斯推理、強化學習、高斯過程模型等。


除了2篇最佳論文外,還有7篇論文獲得最佳論文提名,分別為:

1、Analogies Explained: Towards Understanding Word Embeddings(愛丁堡大學)

論文地址:

https://arxiv.org/abs/1901.09813

2、SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver(CMU、南加州大學等)

論文地址:

https://arxiv.org/abs/1905.12149

3、A Tail-Index Analysis of Stochastic Gradient Noise in Deep Neural Networks(巴黎薩克雷大學等)

論文地址:

https://arxiv.org/abs/1901.06053

4、Towards A Unified Analysis of Random Fourier Features(牛津大學、倫敦過國王學院)

論文地址:

https://arxiv.org/abs/1806.09178

5、Amortized Monte Carlo Integration(牛津大學等)

論文地址:

http://www.gatsby.ucl.ac.uk/~balaji/udl-camera-ready/UDL-12.pdf

6、Social Influence as Intrinsic Motivation for Multi-Agent Deep Reinforcement Learning(MIT、DeepMind、普林斯頓)

論文地址:

https://arxiv.org/abs/1810.08647

7、Stochastic Beams and Where to Find Them: The Gumbel-Top-k Trick for Sampling Sequences Without Replacement(荷蘭阿姆斯特丹大學等)

論文地址:

https://arxiv.org/abs/1903.06059


首先來回顧一下2018年ICML最佳論文;


第一篇是:

Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples

Anish Athalye (MIT), Nicholas Carlini (UCB), David Wagner(UCB)

論文地址:

https://arxiv.org/pdf/1802.00420.pdf


第二篇是:

Delayed Impact of Fair Machine Learning

Lydia Liu, Sarah Dean, Esther Rolf, Max Simchowitz, Moritz Hardt (全員UCB)

論文地址:

https://arxiv.org/pdf/1803.04383


從兩年的最佳論文評選結果來看,ICML似乎對於質疑性的研究特別中意。


2018年第一篇最佳論文質疑了當時普遍使用的構建防禦對抗樣本,增加神經網絡魯棒性的方法——它們都可以被更強大的優化攻擊擊敗。

     

加入了肉眼看不見的擾動,這張貓的圖片就可以欺騙 InceptionV3 分類器,使其分類為「鱷梨醬」


並且它們使用ICLR 2018接收論文中的防禦對抗樣本論文作為研究對象,成功攻破了8 篇有關防禦對抗樣本的研究中的7篇。


而第二篇同樣也是質疑了機器學習在採用歷史數據集時,會產生「偏見」的問題,從而影響到模型對現在的分析或者對未來的預測是否是中立的,會不會對弱勢群體存在忽略。


而今年的則貌似更「過分」,來自谷歌的最佳論文則質疑了幾乎所有同行在無監督分離式表徵學習研究方向的努力。論文提出,在數據集和模型沒有歸納偏置 (Inductive Biases) 的情況下,試圖通過無監督的方法學習到可靠分離式表徵,從而來讓機器學習系統去應對沒有遇到過的場景,這是無法實現的。

今年,國內企業在 ICML 會議上的成果則顯得較為低調,據目前公開資料統計,僅有少量的研究成果,其中,騰訊、阿里巴巴等科技公司依然領跑。其中騰訊的數量為10篇,阿里被收錄5篇,百度有一篇。


論文數量排名前五的公司分別是谷歌、谷歌大腦、微軟、DeepMind、Facebook,論文數量分別為:82、42、35、29、23。

   

ICML 2019接收論文貢獻數排名前50的業界機構


從高校的角度看,中國有四所大學進去TOP50,其中清華大學15篇,北京大學11篇,而南京大學和香港中文大學分別是8篇和7篇。值得一提的是,排名第一的麻省理工論文數量為47篇。


將業界和學界分開來看,純學術研究論文有452篇(58.4%);僅有60篇論文純粹是由業界研究機構完成的;既包含業界也包含學界作者的論文有262篇(33.9%)。總結學界和業界對所有論文的相對貢獻可以得到:


實習/全職編輯記者招聘ing

加入我們,親身體驗一家專業科技媒體採寫的每個細節,在最有前景的行業,和一群遍布全球最優秀的人一起成長。坐標北京·清華東門,在大數據文摘主頁對話頁回復「招聘」了解詳情。簡歷請直接發送至zz@bigdatadigest.cn

相關焦點

  • ICML 2019最佳論文:谷歌質疑現有無監督分離式表徵學習
    大數據文摘出品當地時間6月12日,ICML 2019於美國長灘市公布了本屆大會最佳論文結果。谷歌大腦、MaxPlanck和蘇黎世聯邦理工學院合作的《挑戰無監督分離式表徵的常見假設》,以及劍橋大學的一篇《稀疏變分高斯過程回歸的收斂速率》作為最佳論文摘得桂冠。
  • 不被Hinton認同,否定同行成果,谷歌這篇研究拿下ICML最佳論文
    有兩篇論文,從千軍萬馬中脫穎而出,成為ICML 2019最佳論文。這份大獎花落誰家?谷歌等一篇名為《挑戰無監督分離式表徵的常見假設》的論文,表明 (沒有歸納偏置的) 無監督方法學不到可靠的分離式表徵 (Disentangled Representations) 。
  • 擁有解耦表徵無監督學習是不可能的!硬核ICML 2019最佳論文出爐
    值得關注的是,ETH Zurich、谷歌大腦等機構的論文《挑戰無監督學習中解耦表徵的一般假設》提出了一個與此前學界普遍預測相反的看法:對於任意數據,擁有相互獨立表徵(解耦表徵)的無監督學習是不可能的!在大會上,獲獎論文的部分作者也現場進行了演講。
  • ICML 2019最佳論文出爐 ETH、谷歌、劍橋分獲大獎
    )的論文,對近年來絕大多數的非監督解耦表示方法進行了探索、利用 2.5GPU 年的算力在 7 個數據集上訓練了 12000 多個模型。論文摘要無監督學習解耦表示背後的關鍵思想是,真實世界數據是由一些變量的解釋因子生成的,這些因子可以通過無監督學習算法恢復。在本文中,我們認真回顧了該領域的最新進展,並對一些常見假設提出挑戰。我們首先從理論上證明,如果沒有對模型和數據的歸納偏置,解耦表示的無監督學習基本上是不可能的。
  • ICML 2019 最佳論文公布:繼霸榜後,谷歌再添重磅獎項!
    據 ICML 2019 前不久公布的論文結果,今年大會共收到 3424 篇有效投稿論文,最終收錄的論文數量為 774 篇,接收率為 22.6%。而今天,萬眾矚目的 ICML 2019 最佳論文結果最新出爐,將會議推向了高潮。
  • ICML 2019必看!87頁超強幹貨博士筆記總結
    提交論文最多的子領域分別是:深度學習、通用機器學習、強化學習、優化等論文數量排名前五的公司分別是谷歌、谷歌大腦、微軟、DeepMind、Facebook,論文數量分別為:82、42、35、29、23。最終谷歌獨攬153篇,成為ICML論文收錄第一。
  • 乾貨 | 3分鐘讀完ICLR 2017最佳論文,谷歌佔據半壁江山
    素有深度學習屆頂會「無冕之王」之稱的第五屆國際學習表徵會議(ICLR 2017)在法國土倫舉行。
  • 一文速覽ICML2020高引論文與華人作者
    簡介:人類觀察者可以從一大堆的例子中學習識別新的圖像類別,然而用機器感知來識別這些圖像仍然是一個開放的過程挑戰。本文假設數據有效的識別是通過使自然信號的可變性更可預測的表示來實現的。因此,作者重新審視並改進對比預測編碼,這是一個學習這種表示的無監督目標。這種新的實現產生的特性支持在 ImageNet 數據集上實現最先進的線性分類精度。
  • 引用次數最多的深度學習論文出自誰手?(無監督學習/生成模型篇)
    囿於篇幅限制,雷鋒網(公眾號:雷鋒網)整理編譯了無監督學習/生成模型的七篇論文,並增加了論文的概要,方便讀者快速了解。自然圖像分布的建模在無監督學習中是一個裡程碑式的難題,因為圖像的高維度和高結構性,建模時需要考慮模型的可表達性,可控性和可擴展性,這使得很多模型在建立時以犧牲性能為代價,才能提取出有意義的圖像表徵。
  • 引用次數最多的深度學習論文出自誰手?無監督學習/生成模型篇
    文章在精不在多,雷鋒網提供的這些文章,都被認為是值得一讀的優秀論文。囿於篇幅限制,雷鋒網整理編譯了無監督學習/生成模型的七篇論文,並增加了論文的概要,方便讀者快速了解。自然圖像分布的建模在無監督學習中是一個裡程碑式的難題,因為圖像的高維度和高結構性,建模時需要考慮模型的可表達性,可控性和可擴展性,這使得很多模型在建立時以犧牲性能為代價,才能提取出有意義的圖像表徵。
  • 加速RL探索效率,CMU、谷歌、斯坦福提出以弱監督學習解糾纏表徵
    選自arXiv作者:Lisa Lee等機器之心編譯機器之心編輯部巨大的探索空間阻礙了強化學習(RL)的發揮,這篇論文通過弱監督學習從廣泛的目標空間中分離出有語義意義的表徵空間,從而增強 RL 的學習速度與泛化性能。通用型智能體必須通過與真實環境交互來高效學習各種任務。
  • 近期必讀的六篇 ICML 2020【對比學習】相關論文
    我們表明,與視覺表示學習不同的是,將視圖數增加到兩個以上或對比多尺度編碼並不能提高性能,並且通過對比來自一階鄰居的編碼和圖擴散( graph diffusion)可以獲得最佳性能。在線性評估協議下,我們的模型在8個節點和圖分類基準上有8個取得了最新結果。
  • EMNLP2018最佳論文:Facebook 提升 11BLEU 的無監督機器翻譯
    在訓練模型時無需訪問任何翻譯文本資源的 MT 模型的建立(稱為無監督翻譯)是必要的下一步。EMNLP 2018 上我們展示了在該任務上完成的最新研究成果(http://arxiv.org/abs/1804.07755)。我們的新方法相較於之前最先進的無監督方法有了顯著的改進,效果與用近 100,000 個參考譯文訓練過的監督方法近乎一致。
  • ICLR 2019最佳論文揭曉!NLP深度學習、神經網絡壓縮成焦點
    編輯:肖琴【新智元導讀】ICLR 2019今天在官網公布了最佳論文獎!兩篇最佳論文分別來自Mila/加拿大蒙特婁大學、微軟蒙特婁研究院和MIT CSAIL,主題分別集中在NLP深度學習模型和神經網絡壓縮。今天,ICLR 2019在官網公布了最佳論文獎!
  • 【ICML2018】63篇強化學習論文全解讀
    該界限用於擴展現有的幻覺DAgger-MC算法,該算法在確定性的MDPs中提供了理論性能保證,而不是假設一個完美的模型可以被學習。Learning PolicyRepresentations in Multiagent Systems->將代理建模作為表示學習的問題;構建模仿學習和代理識別啟發的新目標,設計一種代理策略表示的無監督學習算法。
  • 9篇論文、12個workshop、2個Tutorial,谷歌是 ACL 2017上亮眼的...
    作為自然語言處理和理解方面水平領先的研究團隊、以及 ACL 2017 的鉑金贊助商,谷歌會在這屆 ACL 上大展拳腳,研究範圍涵蓋句法、語義、論述、交談、多語言建模、情緒分析、問答、總結,以及構建一般意義上的監督和無監督系統、頂尖水平的建模以及根據非直接的監督學習。
  • 當前最好的詞句嵌入技術概覽:從無監督學習轉向監督、多任務學習
    、MILA 研究組和微軟研究院提出的通用句子表徵,以及谷歌的通用句子編碼器。目前最常用的模型是 word2vec 和 GloVe,它們都是基於分布假設(在相同的上下文中出現的單詞往往具有相似的含義)的無監督學習方法。
  • 帝國理工聯手谷歌提出抽象文本摘要最佳模型|ICML 2020
    本文介紹的是ICML 2020 論文《PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization 》,論文作者來自倫敦帝國理工學院和谷歌。
  • 谷歌開源 BERT 模型原始碼
    驚鴻一瞥後,人們都在期待谷歌何時會放出 BERT 模型原始碼。直至今日,谷歌終於一鼓作氣發布了包括 BERT 模型 TensorFlow 代碼、BERT-Base 與 BERT-Large 模型的預訓練檢查點、微調實驗結果的自動化復現 TensorFlow 代碼、預訓練數據生成和數據訓練的代碼在內的「BERT 模型大禮包」。
  • 螞蟻金服提自監督表徵學習識別方法
    我們通過設計了一個結合無監督學習和表徵學習的驗證碼識別方案,在不依賴人工參與和大規模帶標籤訓練樣本的前提下,實現文本驗證碼的自動識別。經過實驗測試發現,我們的方法僅僅使用500張帶有標籤的訓練樣本就可以破解大多數主流網站的驗證碼,這也說明了目前文本驗證碼的部分安全特徵很容易破解。