ICLR 2017匿名評審惹爭議,盤點10篇被拒卻值得一讀的好論文

2020-12-17 機器之心Pro

機器之心整理參與:李亞洲、吳攀

當地時間 2017 年 4 月 24-26 日,第五屆 ICLR 會議將在法國土倫舉行。會議的第一天已經過去,在這一天的會議上有什麼值得關注的亮點呢?機器之心在本文中介紹了研究者 Carlos E. Perez 在 Medium 上總結的那些雖然被拒,但仍然值得關注的/有亮點的論文,還對谷歌、百度、Facebook 展示的部分熱門研究論文進行了介紹。另外,ICLR 的官方 Facebook 主頁有視頻直播,現在也已能看到部分錄製的視頻:https://www.facebook.com/iclr.cc

十篇被拒的好論文

研究者與開發者、Intuition Machine 聯合創始人 Carlos E. Perez 在 Medium 上發布了一篇文章,介紹了那些 ICLR 2017 卻不幸被拒,但仍有價值的十篇論文。

據作者介紹,因為本屆 ICLR 的論文評議方式存在很大的主觀性(實際上也引起了很大的爭議,參閱機器之心文章《學界 | ICLR2017 公布論文接收名單,匿名評審惹爭議》),所以很多原本可能比較優秀的論文卻因為某些原因被刷了下去。Perez 說:「這就是這個不幸的現實。」比如牛津大學、Google DeepMind 和加拿大高等研究院(CIFAR)的研究人員提出LipNet 的重要論文《LipNet: End-to-End Sentence-level Lipreading 》就出人意料地被拒了,不過這篇論文並沒有被包含在這份名單中。下面就列出了這十篇值得關注,卻慘遭淘汰的論文。註:本文僅代表原作者的個人觀點,不表示機器之心的立場。

1. 一種聯合多任務模型:為多 NLP 任務生長一個神經網絡(A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks)

作者:Kazuma Hashimoto, Caiming Xiong, Yoshimasa Tsuruoka, Richard Socher地址:https://openreview.net/forum?id=SJZAb5cel

說明:這是一篇真正新穎的論文,給出了一種逐步生長(grow)神經網絡的方法。這篇論文居然被拒了,真是讓人驚訝!這篇論文為什麼很重要呢?因為其表明了網絡可以如何通過遷移學習(transfer learning)和域適應(domain adaptation)的方式進行開發。目前還沒有多少論文在這個領域探索。

2. 分層的記憶網絡(Hierarchical Memory Networks)

作者:Sarath Chandar, Sungjin Ahn, Hugo Larochelle, Pascal Vincent, Gerald Tesauro, Yoshua Bengio地址:https://openreview.net/forum?id=BJ0Ee8cxx

說明:這也是一篇關於 NLP 的論文。瞧瞧其作者名單,這麼多明星研究者的論文居然也被拒了,真是嚇人!這篇論文可以說是探索記憶的層次概念的最早期的論文之一。大多數記憶增強式的網絡往往只有扁平的記憶結構。這篇論文不應該被輕視。

3.RL:通過慢速強化學習的快速強化學習(RL: Fast Reinforcement Learning via Slow Reinforcement Learning)

作者:Yan Duan, John Schulman, Xi Chen, Peter L. Bartlett, Ilya Sutskever, Pieter Abbeel地址:https://openreview.net/forum?id=HkLXCE9lx

說明:居然把這篇論文給拒了,評議者一定是在逗我!這可是一篇突破性的研究啊!我猜原因是因為標題裡面的 RL 看起來太嚇人了。任何關於元學習(meta-learning)的研究都應該是暢銷貨,然而這篇論文儘管有聲名顯赫的作者,但還是慘遭淘汰。真是不可想像!

4. 揭秘殘差網絡(Demystifying ResNet)

作者:Sihan Li, Jiantao Jiao, Yanjun Han, Tsachy Weissman地址:https://openreview.net/forum?id=SJAr0QFxe

說明:我很喜歡這篇論文,因為其給出了一些關於如何使用殘差或 skip 連接的有見地的經驗法則。2016 年最熱門的創新,一些人嘗試解構這項技術,然而他們的努力卻遭受了打擊。有人說因為這項研究中使用了簡化過的模型。但這個理由可以說是荒唐可笑,你難道不會選擇使用簡化模型來表徵複雜的模型嗎?這難道不是理所當然的事情嗎?

5. 一種神經知識語言模型(A Neural Knowledge Language Model)

作者:Sungjin Ahn, Heeyoul Choi, Tanel Parnamaa, Yoshua Bengio地址:https://openreview.net/forum?id=BJwFrvOeg

說明:又是一篇關於 NLP 的論文,又是 Yoshua Bengio 被拒的一篇論文。將知識庫與深度學習融合應該是一項非常重大的成果,然而這篇論文卻因為「缺乏新穎性(lack of novelty)」而被駁回。評議者抱怨最多的是該論文的書寫風格,真是不幸。

6. 知識適應:教會適應(Knowledge Adaptation: Teaching to Adapt)

作者:Sebastian Ruder, Parsa Ghaffari, John G. Breslin地址:https://openreview.net/forum?id=rJRhzzKxl

說明:當我第二遍刷被拒的論文時,我才注意到這一篇。畢竟我自己也是有所偏見的,我更傾向於尋找關於域適應和遷移學習的研究。這篇論文給出了一些非常好的想法。不幸的是,這些想法沒能打動評議者。

7. 張量混合模型(Tensorial Mixture Models)

作者:Or Sharir, Ronen Tamari, Nadav Cohen, Amnon Shashua地址:https://openreview.net/forum?id=BJluGHcee

說明:我非常喜歡這篇論文,參考我的另一篇文章:https://medium.com/intuitionmachine/the-holographic-principle-and-deep-learning-52c2d6da8d9,不幸的是,評議者對該研究太多懷疑了。

8. 探究深度神經網絡的表現力(On the Expressive Power of Deep Neural Networks)

作者:Maithra Raghu, Ben Poole, Jon Kleinberg, Surya Ganguli, Jascha Sohl-Dickstein地址:https://openreview.net/forum?id=B1TTpYKgx

說明:如果這樣的基礎理論和實驗研究論文都會被拒,而那些像煉丹一樣的所謂的「深度學習研究」卻能得到支持,那還研究個毛線!

9. 深度學習的 Hessian 特徵值:奇點與超越(Eigenvalues of the Hessian in Deep Learning: Singularity and Beyond)

作者:Levent Sagun, Leon Bottou, Yann LeCun地址:https://openreview.net/forum?id=B186cP9gx

說明:WOW,Yann LeCun 的論文也被拒了,小夥伴們都驚呆了!這是故意在向著名作者的臉上丟雞蛋嗎?我猜想是因為這篇研究的基礎實驗數據不夠性感,不能打動評審。有評論寫道:「有趣的實驗數據,但並沒有理論。」簡直是完全不切實際的期望。

10. 一個對深度網絡損失表面的實證分析(An Empirical Analysis of Deep Network Loss Surfaces)

作者:Daniel Jiwoong Im, Michael Tao, Kristin Branson地址:https://openreview.net/forum?id=rkuDV6iex

說明:在我另一篇文章,我談到了關於隨機梯度下降(SGD)作為一種隱式的正則化方法的另一個證據,這就是這篇論文所探討的。但遺憾的是,這些挖掘出了非常令人印象深刻的數據的研究者卻什麼也沒得到,只得到了論文被拒的羞辱。

最後,Perez 也談了談自己對於這些被拒的論文的看法:

那些試圖提升我們的理解和經驗的大膽研究不應該因為書寫風格或沒有足夠的數據而受到懲罰。在研究的最前沿,獲取合適的數據和進行實驗要困難得多。我看到新穎的創新研究的問題之一是對評議者來說不太熟悉,然而遺憾的是,正是由於它們的新穎,作者卻沒能得到合理的對待。

對於深度學習本質上的實驗研究來說,回報實在太少了。在這些情形中,研究者常常會使用簡化的模型來進行易於理解的分析。人們不應該總是關注有很好的實驗結果,當然這對機器工作方式的表徵是足夠有價值的;但如果缺少理論研究,我們基本上就是在毫無方向地摸黑「煉丹」。

人們很擔憂,當前研究環境會對深度學習研究者越來越糟糕。這個領域發展得太快了,很多評議者的看法往往跟不上最新的研究發展。所以最後會造成批評寫作風格而不是批評研究本質這樣的情況發生。這麼多好論文被拒,足以說明這種知識鴻溝之大。

接下來,機器之心對大會第一天谷歌、百度海報展示的兩篇論文進行了介紹,Facebook 對話系統方面的研究在昨天的官方博客中也有所介紹。

谷歌:規模化的對抗機器學習

在 ICLR 2017 大會上,谷歌提交了為數最多的論文。據谷歌博客介紹,圍繞神經網絡與深度學習的理論與應用,谷歌開發了進行理解與泛化的新的學習方法。此次大會,谷歌共有 50 多位研究人員參與。值得一提的是,三篇最佳論文中有兩篇都是來自於谷歌。

關於兩篇最佳論文,機器之心在昨日的文章中已經進行了摘要介紹。但除了這兩篇最佳論文,谷歌還 poster 展示了其他眾多論文。其中,剛回到谷歌的 Ian Goodfellow 就海報展示了論文《Adversarial Machine Learning at Scale》。

論文地址:https://arxiv.org/abs/1611.01236

摘要:對抗樣本(adversarial examples)是被設計用來愚弄機器學習模型的惡意輸入。它們總是從一種模型遷移到另一個,讓 attackers 在不知道目標模型的參數的情況下進行黑箱攻擊。對抗訓練(adversarial training)是在對抗樣本上明確地訓練模型的過程,從而使它可在面臨攻擊時更穩健或可減少它在乾淨輸入上的測試錯誤率。目前,對抗訓練主要被用於一些小問題。在此研究中,我們將對抗訓練應用到了 ImageNet。我們的貢獻包括:(1)推薦如何將對抗訓練成功地規模化到大型模型和數據集上。(2)觀察對抗訓練對單步 attack 方法的穩健性。(3)發現多步 attack 方法要比單步 attack 方法有較小的可遷移性,所以單步 attack 對進行黑箱 attack 更好。(4)分辨出是「lable leaking」效應造成對抗訓練的模型在對抗樣本上的表現比在乾淨樣本上的表現更好,因為對抗樣本構造流程使用真實標籤(true label),所以該模型能學習利用構造流程中的規律。

百度:探索循環神經網絡中的稀疏性

和谷歌一樣,百度也是本屆 ICLR 大會的白金贊助商。在大會開幕的第一天,百度海報展示了一篇論文《EXPLORING SPARSITY IN RECURRENT NEURAL NETWORKS》,據百度介紹,這一在 RNN 上的新研究能夠使用稀疏訓練將網絡大小減少 90%。

論文地址:https://openreview.net/pdf?id=BylSPv9gx

摘要:隨著數據量、計算能力的提升,循環神經網絡被普遍用來解決各種問題,也因此模型有大小。頂級的循環網絡中的參數量使得他們難以部署,特別是在手機和嵌入式設備上。其中的挑戰既在於模型的大小,也在於評估所要花費的時間。為了有效的部署這些循環網絡,我們提出了一種技術,在網絡的初始訓練過程中通過剪枝權重的方法減少網絡的參數。在訓練結束時,網絡的參數會稀疏,但準確率依然接近原始的密集型神經網絡的準確率。網絡的大小減小了 8 倍,而訓練模型所需的時間不變。此外,在仍舊減少參數總量的情況下,我們能剪枝一個大型的密集網絡從而獲得比基線表現更好的結果。剪枝 RNN 減少了模型的大小,同時使用稀疏矩陣相乘極大的加速推論速度。基準表明,使用我們的技術能把大小減少 90%,速度提升 2 到 7 倍。

Facebook:對話系統研究

Facebook 的人工智慧實驗室主任 Yann LeCun 作為 ICLR 會議的發起人,在大會的第一開首先進行了演講。

此次 ICLR 大會,Facebook 也通過多種形式展現了自己的最新研究成果。在昨日機器之心的文章中,Facebook 著重介紹了他們在對話系統方面的研究。

在官方博客中,Facebook 表示,「在讓機器理解自然語言對話的內容一直是 Facebook 人工智慧實驗室的一項雄心勃勃的長期研究目標。真正有效的對話系統將會成為有效的輔助技術——其中會包含通過自然語言與人類進行交互的聊天系統。對話系統可以幫助用戶更好地理解周遭的世界,更有效地與他人進行交流,消除溝通不暢的問題。隨著網絡世界的不斷擴大,研究和開發這類技術正在變得越來越重要。」

此次大會上,Facebook 被接收的有關對話系統的研究有 7 篇,總共被接收的論文量為 18 篇。

相關焦點

  • 【重磅】深度學習頂會ICLR2018評審結果出爐,一文快速了解評審分析簡報和評分最高的十篇論文
    這個一年一度的會議雖然今年2017年辦到第六屆,已經被學術研究者們廣泛認可,被認為「深度學習的頂級會議」。ICLR 採用Open Review 評審制度。Open Review 則非常不同,根據規定,所有提交的論文都會公開姓名等信息,並且接受所有同行的評價及提問(open peer review),任何學者都可或匿名或實名地評價論文。而在公開評審結束後,論文作者也能夠對論文進行調整和修改。
  • 惹爭議!本科畢業生成為NIPS 2018論文同行評審
    在 NIPS 2018 大會論文接收即將結束之時,一名本科剛剛畢業的學生成為大會論文同行評審的消息引起了人們的熱烈討論。在大家奮力趕在時限之前提交論文的同時,機器之心注意到了社交網絡上一個有趣的帖子:題目:NIPS 2018:如何寫好同行評議?這篇帖子的題主如此寫道:我剛剛收到了一封郵件,成為了 NIPS 2018 同行評議的一員,真是 EXCITING!然而我只是一位剛剛畢業的本科生,即將在今年秋天開始讀碩士,所以說我從來沒有提交或者評審過這個大會的論文。
  • ICLR 2018論文評審結果出爐:一文概覽論文 TOP 5
    在明年 1 月 5 日之前,人們將對目前提交的論文進行討論。根據評審得分,我們整理了排名前五的論文。目前,史丹福大學探究神經網絡對抗樣本的論文 Certifiable Distributional Robustness with Principled Adversarial Training 名列第一。今年的 ICLR 大會接收到了 981 篇有效論文。
  • ICLR 2019評審結果出爐!一文看全平均8分論文
    ,相比沸沸揚揚的NIPS評審爭議,ICLR的評審結果沒有出現太多爭論。目前來看,關於ICLR評審結果的反饋沒有太多爭論。有Reddit用戶表示:「我不得不說,今年ICLR的評審比NIPS的要好得多。至少,到目前為止,在我關注的領域我還沒有看到任何ICLR的愚蠢評論。確實,有時評審人會漏看一些論文的瑕疵。但總會有另一個評審人指出來。而且,你可以通過添加公共評論來指出你希望評審人注意到的問題。」
  • AAAI 2019評審惹爭議!「好論文」遭退稿?程序主席回應
    這兩年AI頂會論文灌水與評審不專業的問題愈發凸顯。最近,中國某知名高校博導一篇AAAI論文被拒,她認為主要是因為同行評審不專業,AAAI 2019程序主席之一周志華教授做了回應。您所述的稿件被拒過程和理由不能說服我,我保留個人意見。我不服的理由主要如下:1. 論文評閱人 #2以論文不符合論文主題,就看都不看,或者根本沒有認真去看論文,就胡亂地給出一些與論文內容完全不符的意見,給出strong reject的評審結果。
  • ICLR公布論文接收結果,Oral論文華人一作佔三分之一
    其中687篇論文被接收,poster論文接收率為26.5%,1.85%的論文獲得了口頭論文展示。ICLR由Lecun,Hinton和Bengio三位神經網絡的元老聯手發起的。近年來隨著深度學習在工程實踐中的成功,ICLR會議也在短短的幾年中發展成為了神經網絡的頂會。ICLR同時通過一條Medium的博文,說明了相關評審機制和接收情況。
  • 胡成:匿名評審,請來點透明和陽光
    萬一按捺不住,想寫一本書(最好不要寫),那就寫得讓大數人無法卒讀;否則,一旦出了名,書賣得暢銷,「別人就會諷刺你 『光輝耀目』,且不會再有人尊敬你了」。( [英]G• R•埃文斯:《劍橋大學新史》,丁振琴、米春霞譯,商務印書館,2017年,第12頁)作為具體案例,可以佐證那個時代的學者不會在意學術發表。
  • ICLR2019七大爭議論文:是評審不公,還是論文真不行
    因論文評審全公開而頗受好評的ICLR,今年組委會特意延後了截稿時間,選出幾篇最具爭議的論文貼出來供業界討論。究竟該得1分還是9分?是埋沒的金子還是路邊的石頭?一起來看。雖然人們普遍認為隨機標籤上的學習可以被稱為「記憶」,但論文似乎將其定義為同一類的網絡聚類點的好壞。為了使這一概念得到證明,需要解決更多問題(略)。
  • 【ICLR 2019錄用結果出爐】24篇Oral, 918被拒
    今年ICLR共接收1578篇投稿,相較去年981篇有了60%的增加,錄用結果如下:1.5% 錄用為 oral 論文(24篇)、30.2% 錄用為 poster 論文(476篇),58% 論文被拒(918篇)、610% 撤回(160篇)。ICLR是深度學習領域的頂級會議,由深度學習三巨頭中的Yoshua Bengio和Yann LeCun主導創辦。
  • DeepMind唇讀系統ICLR遭拒
    如前所述,該論文在評審階段得到的分數分別為 3,4,9。為什麼會出現這樣的兩極分化局面呢?我們來看一下評審人員的評審意見。低分評審結果領域主席(AC)在 reject 聲明中發表了以下觀點:這篇論文很有爭議,作者和評審人員進行了大量討論,主要的爭論焦點在於該論文是否適合 ICLR。
  • ACL新政禁止投稿論文在arXiv公開,我們到底需要什麼樣的雙盲評審?
    這一要求顯然再次引發了對於「雙盲評審的必要性」和「如何高效率地執行雙盲評審」的討論,畢竟一段時間之前 ICLR 2018 的匿名論文投稿在評審結果出爐前就大批量暴露了論文作者,已經出現了一些批評的聲音。剛好 ACM 通訊近日的一篇文章就研究了論文接受率和匿名的關係,雷鋒網 AI 科技評論先帶大家重新認識一下前一個話題。
  • ICLR 2020 匿名評審九篇滿分論文,最佳論文或許就在其中
    機器之心整理 參與:思源、蛋醬、澤南 從反傳的自動微分機制,到不平行語料的翻譯模型,ICLR 2020 這 9 篇滿分論文值得你仔細閱讀。
  • ICLR 2019提交截止,近1600篇論文已全部上線
    嶽排槐 發自 凹非寺量子位 出品 | 公眾號 QbitAI今早ICLR 2019宣布提交截止,大會總共收到近1600篇論文
  • 還沒進評審就被拒:IJCAI 2020 近半投稿遭summary reject
    在知乎網友貼出的拒稿信截圖可以看出,在大會的 5147 篇提交論文中有 2191 篇論文被拒稿,拒稿率達到了史無前例的 42%。一時間,Reddit、知乎、推特等傳來陣陣哀嚎。Summary Reject:控制投稿雖好,卻失了力道據悉,本次大量的拒稿情況集中在 summary reject 階段。
  • ICLR 2017即將開幕,機器之心帶你概覽論文全貌
    機器之心報導參與:吳攀、李亞洲、蔣思源當地時間 2017 年 4 月 24-26 日,第五屆 ICLR 會議將在法國土倫舉行。作為深度學習領域的盛會之一,ICLR 2017 有許多精彩的內容值得我們關注。在這篇文章中,機器之心梳理了 ICLR 2017 提交論文的特點、本屆會議的最佳論文。
  • ICLR論文評選吃力不討好?arxiv-sanity上有新發現ICLR2017
    雷鋒網AI科技評論按:ICLR2017將於4月24-26日在法國土倫舉行,屆時雷鋒網AI科技評論的編輯們也將前往法國帶來一線報導。在這個深度學習會議舉辦之前,雷鋒網也將圍繞會議議程及論文介紹展開一系列的覆蓋和專題報導,敬請期待。
  • ICLR 2017即將開幕,機器之心帶你概覽論文全貌(附最佳論文與直播地址)
    作為深度學習領域的盛會之一,ICLR 2017 有許多精彩的內容值得我們關注。在這篇文章中,機器之心梳理了 ICLR 2017 提交論文的特點、本屆會議的最佳論文以及機器之心過去一段時間報導過的有關 ICLR 2017 的文章。此外,去不了大會現場的讀者也不必感到遺憾,因為有以下大會 Oral Session 的直播。
  • ICLR 開幕,今年組委會總結了哪些論文投遞亮點?| ICLR 2017
    Ranzato 同時指出,由於今年投遞論文的人數過多,有 50% 的論文沒能在規定時間內進行評審,不得不緊急調動了多名學者加班加點。而得益於 OpenReview 的平臺,論文或多或少都得到了非評審團的評點和討論,但它對論文改進所起的作用,Ranzato 覺得就見仁見智了。
  • ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017
    在這個深度學習會議舉辦之前,雷鋒網也將圍繞會議議程及論文介紹展開一系列的覆蓋和專題報導,敬請期待。Andrej Karpathy 認為,把每篇論文在 ICLR 2017 (International Conference on Learning Representations,一個廣受歡迎的深度學習會議)的入選情況(分為4種:口頭報告 (oral) ,海報展示 (poster) ,進一步研討 (workshop) ,被拒 (reject) ),和該論文被添加到 arxiv-sanity
  • ICLR 2021公開評審,這些信息點和高贊論文不可錯過!
    作者 | 陳大鑫 近日,機器學習頂會ICLR 2021投稿已經結束,最後共有3013篇論文提交。ICLR 採用公開評審(openreview)機制,任何人都可以提前看到這些論文。以下是本次ICLR 2021提交論文的詞雲圖:之後Sergey Ivanov似乎在諷刺道:雙盲評審有多盲?對NeurIPS 2020來說,在9298份提交的論文中,已有2313篇論文發在arXiv上,佔所有提交論文的25%。