ICLR論文評選吃力不討好?arxiv-sanity上有新發現ICLR2017

2020-12-16 雷鋒網

雷鋒網AI科技評論按:ICLR2017將於4月24-26日在法國土倫舉行,屆時雷鋒網AI科技評論的編輯們也將前往法國帶來一線報導。在這個深度學習會議舉辦之前,雷鋒網也將圍繞會議議程及論文介紹展開一系列的覆蓋和專題報導,敬請期待。

認為,把每篇論文在ICLR2017(InternationalConferenceonLearningRepresentations,一個廣受歡迎的深度學習會議)的(分為4種:口頭報告(oral),海報展示(poster),進一步研討(workshop),被拒(reject)),和該論文被添加到網站的library的次數進行交叉比較,是一件很有趣的事情。某篇論文是否能入選ICLR2017,是由幾個相應領域的領頭人和審稿人,經過幾個月時間的審閱後才能決定的。而在arxiv-sanity上參與決定的人,只有每月為此投入總共2個小時的原作者,當然還有應對投稿洪流的若干網站工作人員。現在讓我們來看看這場自上而下、自下而上的戰役會發生什麼。AndrejKarpathy入選情況arxiv-sanity

投稿論文在ICLR2017的入選情況可以參看OpenReview.net的情況,投稿論文共計491篇,其中15篇(3%)論文將在會上做口頭報告,183篇(37.3%)論文將被製成海報在會上展覽,48篇(9.8%)論文被建議進一步研討,245篇(49.9%)論文被拒絕。ICLR2017將於4月24日至27日在土倫舉辦,屆時入選的論文將在會議上進行展示。期待一睹土倫這個美麗的城市:

法國土倫

扯遠了,讓我們言歸正傳回到文章主題上。

另一方面,作者一方的arxiv-sanity網站具有library功能。換言之,任何註冊用戶都可以在該網站上他們的library裡添加論文,然後基於所有收藏論文全文的二元tf-idf特徵,arxiv-sanity將為每位用戶訓練出個性化的支持向量機(SupportVectorMachine),提供基於內容的論文推薦。例如在網站裡的library收藏一些關於加強學習(ReinforcementLearning)、生成模型(GnerativeModels)、計算機視覺(ComputerVision)的論文,無論網站何時出現關於這些主題的新論文,它們都將出現在「推薦」標籤中的最上方。現在arxiv-sanity網站上的審查池(reviewpool)總共有3195個用戶——他們是library裡收藏至少一篇論文的用戶,這些用戶迄今共收錄了55671篇論文,平均每人17.4篇。

arxiv-sanity網站一個很重要的特徵是,用戶贊同(upvote)一篇論文後,會產生相應的影響。因為用戶收錄論文的動機暗示著此論文對用戶來說非常重要,所以當用戶收錄一篇論文時,該論文會增加該文章方向上的推薦權衡,進而影響推薦給用戶的論文。

實驗

長話短說,Andrej對ICLR中的所有論文進行了循環,然後在arxiv-sanity網站上,通過嘗試對收錄的論文的標題進行全字符匹配,把相同的論文找出來。論文沒法匹配的原因可能是,有些ICLR論文沒有被網站收錄,有些論文因為作者重命名後與原題目不匹配,或者因為題目中包含不能匹配的奇特字符等。

例如,對ICLR2017進行口頭報告的論文進行匹配,作者得到的結果是:

15篇進行口頭報告的論文,在arxiv-sanity網站上找到了以下10篇,附帶網站裡的library收藏數:

這裡看到,在ICLR做口頭報告的15篇論文,arxiv-sanity收錄了10篇,題目左邊的數字是網站裡將這篇論文添加到library的用戶數,例如,"ReinforcementLearningwithUnsupervisedAuxiliaryTasks"被64個arxiv-sanity用戶添加到了library。

183篇製成海報展覽的論文,在arxiv-sanity網站上找到了以下113篇,附帶網站裡的library收藏數:

某些論文得到了很多人的青睞,最多達到149人!然而收藏某些論文的人一個也沒有。

建議進一步研討的論文,結果如下:

48篇建議進一步研討的論文,在arxiv-sanity網站上找到了以下23篇,附帶網站裡的library收藏數:

作者不打算列出總計200篇被拒絕的論文,Arxiv-sanity用戶真的非常喜歡其中一些論文,但是ICLR會議涉及領域的領頭人和審稿人一點也不喜歡:

245篇被拒絕的論文,在arxiv-sanity網站上找到了以下58篇,附帶網站裡的library收藏數:

以上所列論文的前幾篇,投稿遭到拒絕這一結局對它們來說可能不太公平。

現在另一個問題是——ICLR2017的投稿論文如果只由arxiv-sanity用戶投票評選(可以在arxiv上找到的論文),結果會是怎麼樣子的呢?這是投票結果的一個摘錄:

做頭口報告的論文:

製成海報展覽的論文:

由arxiv-sanity用戶投票評選的。請注意,基於arxiv-sanity用戶的投票評選結果,一些被拒絕的ICLR2017投稿論文,幾乎優秀到可以進行口頭報告,特別是以下這幾篇:完整列表可以看這裡

"ThePredictron:End-To-EndLearningandPlanning"

"RL^2:FastReinforcementLearningviaSlowReinforcementLearning"

"Understandingintermediatelayersusinglinearclassifierprobes"

"HierarchicalMemoryNetworks"

相反地,arxiv-sanity用戶對一些入選的論文並不太喜歡,以下是完整的混亂矩陣:

這是,每一欄還附帶了論文的標題。這矩陣看起來不太糟糕,只是雙方在評選進行口頭報告的論文上面分歧很大;同意製成海報展覽的論文,雙方分歧相對少很多;最重要的是,進行口頭報告與被拒絕的論文之間的分歧非常小,同時製成海報展覽的論文與被拒絕的論文之間的分歧也非常少。此外,祝賀Max等,因為""是唯一一篇雙方都同意應該進行口頭報告的優秀論文:)文本形式的混亂矩陣ReinforcementLearningwithUnsupervisedAuxiliaryTasks

最後,幾天前作者在媒體上看到以下這篇由卡洛斯·佩雷斯(CarlosE.Perez)撰寫的文章:"",似乎arxiv-sanity用戶的看法與這篇文章的意見不謀而合。包括LipNet,在這篇文章裡列出的所有論文(同樣可以在arxiv-sanity上找到)應該成為入選論文,和arxiv-sanity用戶的看法出奇一致。TenDeservingDeepLearningPapersthatwereRejectedatICLR2017

討論

注意:這裡存在幾個使結果有所偏斜的因素。例如,arxiv-sanity用戶群的大小隨著時間的推移而增大,所以這些結果可能稍微偏向於後期收錄在arxiv-sanity的論文,因為越往後收錄進網站的新論文越容易引起更多用戶的關注。除此之外,論文被看到的頻率並不相同。例如,如果論文被有名人士轉發,看到論文的人會更多,將論文添加到他們library的人也會更多。最後,另一個更好地說明傾斜存在的理由是,在arxiv-sanity,好論文的曝光率會更多,因為收錄在arxiv-sanity的論文不是匿名的,好論文當然會得到更多的關注,在ICLR同樣存在這種特殊情況,所以在這一點上雙方沒有區別。

終上所述,AndrejKarpathy從這個實驗得出的結論是:哪些投稿論文可以入選ICLR的徵兆很多。而且結果是從網際網路這個自下而上的評選過程中「免費」獲得的,而不用幾百人用幾個月時間才能得出結果。作者想對被拖延幾個星期或者幾個月,長時間處於巨大壓力下,忍受來回辯駁痛苦的提交方或者審查方說:也許你們不需要這麼痛苦。或者至少,改進的空間很大。

更多資訊請關注雷鋒網。

via,雷鋒網編譯,頭圖viaJuliaManzerova@flickrmedium

相關焦點

  • ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017
    現在 arxiv-sanity 網站上的審查池 (review pool) 總共有3195個用戶——他們是 library 裡收藏至少一篇論文的用戶,這些用戶迄今共收錄了55671篇論文,平均每人17.4篇。arxiv-sanity 網站一個很重要的特徵是,用戶贊同 (upvote) 一篇論文後,會產生相應的影響。
  • 【重磅】深度學習頂會ICLR2018評審結果出爐,一文快速了解評審分析簡報和評分最高的十篇論文
    這個一年一度的會議雖然今年2017年辦到第六屆,已經被學術研究者們廣泛認可,被認為「深度學習的頂級會議」。ICLR 採用Open Review 評審制度。Open Review 則非常不同,根據規定,所有提交的論文都會公開姓名等信息,並且接受所有同行的評價及提問(open peer review),任何學者都可或匿名或實名地評價論文。而在公開評審結束後,論文作者也能夠對論文進行調整和修改。
  • ICLR 2018論文評審結果出爐:一文概覽論文 TOP 5
    截至 12 月 1 日,有 979 篇論文至少經過了一次打分。近日,大會官方給出了論文雙盲評審的評分結果。統計數據顯示,平均分為 5.24,中位數為 5.33(滿分 10 分)。論文評分前一百名結果:http://search.iclr2018.smerity.com/根據 Andrej Karpathy 的介紹,在今年 4 月的 ICLR 2017 大會上,提交論文的數量為 491 篇,而被接受的情況為:15 篇 oral(3%),183 篇 poster
  • ICLR 2017即將開幕,機器之心帶你概覽論文全貌
    此外,去不了大會現場的讀者也不必感到遺憾,因為有以下大會 Oral Session 的直播。直播地址:https://www.facebook.com/iclr.ccICLR 全稱為「International Conference on Learning Representations(國際學習表徵會議)」。
  • ICLR 2017即將開幕,機器之心帶你概覽論文全貌(附最佳論文與直播地址)
    作為深度學習領域的盛會之一,ICLR 2017 有許多精彩的內容值得我們關注。在這篇文章中,機器之心梳理了 ICLR 2017 提交論文的特點、本屆會議的最佳論文以及機器之心過去一段時間報導過的有關 ICLR 2017 的文章。此外,去不了大會現場的讀者也不必感到遺憾,因為有以下大會 Oral Session 的直播。
  • ICLR2018 | 深度學習頂會見聞,乾貨資源都在這裡(附源碼、論文連結)
    在論文提交時間上,有一個有趣的現象,1003篇論文中,有近800篇論文是截止時間前24小時提交的,其中最後半小時提交了200多篇,驗證了DDL是第一生產力是全球通行的,哈哈哈,不過也說明大家精益求精吧。
  • ICLR公布論文接收結果,Oral論文華人一作佔三分之一
    和以往一樣,所有被接收的論文都將以海報形式進行展示,其中,23%被接收的論文會以口頭形式演講,108篇有4分鐘演講時間,48篇有10分鐘。ICLR論文歷年接收數量除了今年的兩項調整,其餘的審核過程和之前基本保持不變。這兩項調整包括,不允許討論期間進行公開評論,保證作者和審核人員對討論重點有清晰的獨立的認知;留有一周時間進行替換和緊急審核。
  • ICLR 2017匿名評審惹爭議,盤點10篇被拒卻值得一讀的好論文
    機器之心整理參與:李亞洲、吳攀當地時間 2017 年 4 月 24-26 日,第五屆 ICLR 會議將在法國土倫舉行。會議的第一天已經過去,在這一天的會議上有什麼值得關注的亮點呢?機器之心在本文中介紹了研究者 Carlos E.
  • 一文盡覽 ICLR 2019 Facebook & Google 入選論文
    論文入選結果公布,各大公司和研究院紛紛在博客上公布了今年入選的論文。其中,Facebook 戰果滿滿,一共有 23 篇論文入選。值得注意的是,2018 年圖靈獎得主 Yann LeCun 是其中兩篇入選論文的共同作者之一。Facebook 人工智慧研究院研究員、圍棋項目負責人田淵棟博士也參與了其中兩篇論文的寫作。而一直備受關注的 Google 在今年也有 57 篇論文入選了 ICLR 2019,其中,oral 論文有三篇。
  • ICLR 2020華人雄起!華人參與度近60%,清華、南大均斬獲滿分論文
    id=SyxrxR4KPS這是一篇發表在ICLR 2020上的論文,作者在該論文解釋了靈活性是如何產生並在大腦中實現的,從而有可能設計出具有類似能力的智能體,並提出了一種更貼近現實的方式來訓練,使其與生物數據更具可比性。今年的ICLR受疫情影響取消了現場會議,但仍然如期在線上進行了虛擬會議。此次虛擬頂會的參會形式有所改變,所有被接受的論文都要預先錄製展示視頻。
  • ICLR 2019八大趨勢:RNN正在失去光芒,強化學習仍最受歡迎
    儘管大多數大牌研究實驗室已經在進行這方面的研究,但在ICLR上只有一篇論文:「元學習無監督學習的更新規則」(Metz et al.)。他們的算法不升級權值,而是升級學習規則。然後,在少量的標記樣本上對從學習規則中學習到的表示進行調整,以完成圖像分類任務。
  • 自「彩票假設」理論被授予2019 ICLR 最佳論文後,該領域又有了哪些...
    在模型收斂後,我們重複該剪枝過程(屏蔽額外的 s 的權值),並使用新一輪剪枝後發現的掩模設置初始化權值。我們重複這個過程,直到達到期望的稀疏程度,或者測試準確率顯著下降。圖 3:尋找「中獎網絡」的過程如果 IMP 算法成功執行,它就能找到「中獎網絡」,即經過迭代式的剪枝過程後留下的子網絡。
  • 反思ICLR 2017:拼運算拼資源時代,學術研究如何生存?
    企業附屬型科研的最高榮譽根據質量、明確性、原創性和重要性,提交至該會議的論文會被分為口頭報告、會議海報、研討會海報以及拒稿這幾類,而其中三篇口頭報告的論文進一步被評為了「最佳論文」。在提交的 451 篇論文中,有 15 篇被選為口頭報告,另外 230 篇作為會議海報或研討會頻道的海報。
  • 【PyTorch 挑戰 TensorFlow】28303 篇 arXiv 論文看深度學習 6 大趨勢
    】本文由 Andrej Karpathy撰寫,他前不久加入了特斯拉,擔任AI 負責人。你是否用過谷歌趨勢(Google Trends)(https://trends.google.com/trends/?cat=)呢?它的功能很酷:只需要輸入關鍵詞,就可以看到該詞的搜索量隨時間變化的情況。
  • ICLR 2018和ICRA 2018參會見聞:機器學習並未被完全接受
    極大極小值優化算法(Minimax)不是一個新概念,它已經有些年頭了。新的思想在於深度學習能基於高維度數據進行建模,並且學習複雜的損失函數。對我而言,GAN 的有趣之處不是圖像生成,而是它們在複雜數據,如圖像上的概念證明。整個框架並不要求使用圖像數據。學習過程還有其他的部分可以用學習方法來代替,而不是用人工定義的方法,深度學習就是這樣一種方法。這樣做有意義嗎?也許有。
  • ICLR 2018 DeepMind論文精華一覽
    在發現新架構方面,我們的算法已經超越了大量人為設計的圖像分類模型,在 CIFAR-10 上達到 3.6%的 top-1 誤差,而在 ImageNet 上可達 20.3%,可與現有的最佳神經架構搜索方法相媲美。我們還使用隨機搜索的方式呈現結果,在 CIFAR-10 上的 top-1 精度低於 0.3%,在 ImageNet 上低於 0.1%,同時將搜索時間從 36 小時減少到 1 小時。
  • ICLR 開幕,今年組委會總結了哪些論文投遞亮點?| ICLR 2017
    Ranzato 同時指出,由於今年投遞論文的人數過多,有 50% 的論文沒能在規定時間內進行評審,不得不緊急調動了多名學者加班加點。而得益於 OpenReview 的平臺,論文或多或少都得到了非評審團的評點和討論,但它對論文改進所起的作用,Ranzato 覺得就見仁見智了。
  • 在深度學習頂會ICLR 2020上,Transformer模型有什麼新進展?
    ALBERT:用於語言表徵自監督學習的輕量BERT模型Transformer模型在很大程度上已過參數化,因為這是在很多NLP任務中表現優異的一種有效方式。而ALBERT則是一個可以使BERT減少資源佔用,同時又保持出色性能的很有影響力的例子。
  • ICLR 2020 全析解讀:華人作者貢獻60%,谷歌、卡內基梅隆和清華大學...
    因疫情影響,本是首次在非洲舉辦的國際 AI 學術頂會,卻遺憾地成為首個線上虛擬學術頂會,而所有被接受的論文都要預先錄製展示視頻。雖然少了與大佬們當面交流的機會,但在家就能坐聽大咖開講也是種不錯的選擇。
  • 專訪ICLR 2017主席 Hervé Glotin:蓬勃發展的表徵學習 | ICLR 2017
    雷鋒網 AI 科技評論按:今年4月,ICLR 2017 (International Conference on Learning Representations) 在法國土倫舉行。有1100多名參會者、收到490篇論文投稿的 ICLR 2017 是舉辦以來最大的一屆,與 ICLR 2016 相比規模上又有大幅提升,去年的參會者只有 400人左右。