ICLR 2018論文評審結果出爐:一文概覽論文 TOP 5

2021-02-08 機器之心


ICLR 2018 大會的論文評審已經於 11 月 27 日截止。在明年 1 月 5 日之前,人們將對目前提交的論文進行討論。根據評審得分,我們整理了排名前五的論文。目前,史丹福大學探究神經網絡對抗樣本的論文 Certifiable Distributional Robustness with Principled Adversarial Training 名列第一。


今年的 ICLR 大會接收到了 981 篇有效論文。截至 12 月 1 日,有 979 篇論文至少經過了一次打分。近日,大會官方給出了論文雙盲評審的評分結果。統計數據顯示,平均分為 5.24,中位數為 5.33(滿分 10 分)。


論文評分前一百名結果:http://search.iclr2018.smerity.com/



根據 Andrej Karpathy 的介紹,在今年 4 月的 ICLR 2017 大會上,提交論文的數量為 491 篇,而被接受的情況為:15 篇 oral(3%),183 篇 poster(37.3%)。所以上圖中我們給出了 40% 的接收線作為參考。


分數分布


下圖顯示了相同論文得到評分的最大差值。我們觀察到,對於大多數(約 87%)論文來說,最大差值小於 3。



論文得分 Top 10


在雙盲評審打分過後,我們得到了十篇得分最高的論文。其中部分論文已在其他平臺提交,因此我們可以得知其作者與研究機構了。



請注意,目前評審分數的提交尚未完全結束。現在評分最高的論文是史丹福大學 Aman Sinha 等人的 Certifiable Distributional Robustness with Principled Adversarial Training。另有一篇值得注意的論文,英偉達 Tero Karras 等人的 Progressive Growing of GANs for Improved Quality, Stability, and Variation。收到了 8,8,1 的評分。此外,我們比較關注的第二篇 Capsule 論文:Matrix capsules with EM routing 並沒有太高的評分,該論文目前的評分大約在前 40% 左右。


下面,我們將簡要介紹目前 ICLR 2018 大會評審中排名前五的論文。


論文 1:Certifiable Distributional Robustness with Principled Adversarial Training



連結:https://arxiv.org/pdf/1710.10571.pdf


摘要:神經網絡很容易受到對抗樣本的幹擾,因此研究人員提出了許多啟發式的攻擊與防禦機制。我們採取了分布式魯棒優化的原則,以保證模型在對抗性擾動輸入的條件下保持性能。我們通過給予 Wasserstein ball 上的潛在數據分布一個擾動來構建 Lagrangian 罰項,並且提供一個訓練過程以加強模型在最壞的訓練數據擾動情況下能持續正確地更新參數。對於平滑的損失函數,我們的過程相對於經驗風險最小化可以證明有適度的魯棒性,且計算成本或統計成本也相對較小。此外,我們的統計保證允許我們高效地證明總體損失的魯棒性。因此,該研究結果至少匹配或超越監督學習和強化學習任務中的啟發式方法。


如下所示,魯棒性的模型在原版的馬爾科夫決策過程(MDP)中要比一般的模型學習更高效:


圖 4:訓練中 Episode 的長度,其中環境設置最大為 400 Episode 的長度。



論文 2:ON THE CONVERGENCE OF ADAM AND BEYOND



連結:https://openreview.net/pdf?id=ryQu7f-RZ


摘要:近來提出的幾種隨機優化方法已經成功地應用於深度網絡的訓練,如 RMSPROP、ADAM、ADADELTA 和 NADAM 等方法,它們都是基於使用前面迭代所產生梯度平方的指數滑動平均值,在對該滑動平均值取平方根後用於縮放當前梯度以更新權重。根據經驗觀察,這些算法有時並不能收斂到最優解(或非凸條件下的臨界點)。我們證明了導致這樣問題的一個原因是這些算法中使用了指數滑動平均(exponential moving average)操作。本論文提供了一個簡單的凸優化案例,其中 ADAM 方法並不能收斂到最優解。此外,我們還描述了過去文獻中分析 ADAM 算法所存在的精確問題。我們的分析表明,收斂問題可以通過賦予這些算法對前面梯度的「長期記憶」能力而得到解決。因此本論文提出了一種 ADAM 算法的新變體,其不僅解決了收斂問題,同時還提升了經驗性能。



圖 2:ADAM 和 AMSGRAD 算法在 Logistic 回歸、前饋神經網絡和 CIFARNET 上的性能對比。



論文 3:Emergence of grid-like representations by training recurrent neural networks to perform spatial localization



連結:https://openreview.net/pdf?id=B17JTOe0-


摘要:幾十年來關於空間導航的神經編碼研究揭示了一系列不同的神經反應特性。哺乳動物大腦的內嗅皮層(Entorhinal Cortex/EC)含有豐富的空間關聯性,包括網格細胞(grid cell)使用完全嵌入模式(tessellating patterns)編碼空間。然而,這些空間表徵的機制和功能仍然非常神秘。作為理解這些神經表徵的新方法,我們訓練一個循環神經網絡(RNN),以在基於速率輸入的二維環境下執行導航任務。令人驚訝的是,我們發現類網格(grid-like)響應模式出現在訓練後的網絡中,它和其它空間相關的單元(包括邊緣(border cell)和帶狀細胞)一同出現。所有這些不同的功能性神經元都已經在實驗中觀察到。網格狀和邊緣細胞出現的順序也與發育性研究的觀察一致。總之,我們的結果表明,在 EC 中觀察到的網格細胞、邊緣細胞等可能是用於高效表示空間的自然解決方案,它們在神經迴路中給出了主要的循環連接。


圖 1:其中 a)為樣本神經數據表示 EC 空間導航任務中不同神經關聯性。b)中的循環網絡由 N = 100 個循環單元(或神經元)組成,它們接收兩個外部輸入,即代表動物的速度和方向。c)為訓練後的典型軌跡,RNN 的輸出可以精確地在導航期間追蹤動物的位置。



論文 4:MULTI-SCALE DENSE NETWORKS FOR RESOURCE EFFICIENT IMAGE CLASSIFICATION 



連結:https://arxiv.org/pdf/1703.09844.pdf


摘要:在本論文中,我們探究了圖像分類任務在給定時間內的計算資源消耗。實驗的兩個設定為:1. 即時分類,其中網絡預測的示例圖會逐漸更新,以保證隨時輸出預測結果;2. 批預算分類,其中計算資源是有限的,而輸入的示例圖片存在「簡單的」和「困難的」。與大多數先前的工作相比(如流行的 Viola 和 Jones 算法)我們的方法基於卷積神經網絡。我們訓練多個具有不同資源需求的分類器,並在測試期間自適應地應用這些分類器。為了最大化這些分類器計算資源的使用效率,我們將它們整合進一個深度卷積神經網絡中,使用密集連接將它們聯通。為了更快實現高質量的分類,我們使用了二維混合比例網絡架構,在整個網絡中保持了粗糙與精細的特徵。三個圖像分類任務的實驗證明,我們的框架可以大大提升兩種設置目前的業內最佳水平。


圖 2:具有三個比例的 MSDNet 的前四層圖示。水平方向對應於網絡的層方向(深度),垂直方向對英語特徵圖的比例。水平箭頭表示常規卷積操作,而對角線和垂直箭頭表示步進卷積操作。分類器僅在最粗糙比例的特徵映射上運行。跨越超過一層的連接未明確繪製:它們隱藏地通過遞歸串聯。



論文 5:i-RevNet: Deep Invertible Networks



連結:https://openreview.net/forum?id=HJsjkMb0Z


摘要:人們普遍認為,目前深度卷積神經網絡的成功是建立在逐步拋棄輸入中對於當前問題無意義的變化而實現的。在大多數常用的網絡體系結構中,從隱藏表示中恢復圖像的難度獲得了實踐的證明。在本論文中,我們展示了這種信息損失並不是學習表示如何在 ImageNet 等複雜問題上得到通用性的必要條件。通過一系列的同胚層,我們構建了 i-RevNet 網絡——一個可以被完全倒置,直到最終投影到類上的網絡,在處理過程中沒有信息被丟棄。建立一個可逆的架構是困難的,例如局部倒轉是非常困難的,我們通過提供明確的反轉來克服這個問題。對於 i-RevNet 的學習表徵過程的分析證明了它可以通過漸進收縮和線性分離深度得到很高的準確性。此外,為了解釋由 i-RevNet 學習到的模型的性質,我們重建了自然圖像表示之間的線性插值。


i-RevNet 及其偽逆結構



ICLR 2018 將於 4 月 30 日-5 月 3 日於加拿大溫哥華的 Vancouver Convention Center 舉行。機器之心將持續跟進本次大會的相關信息。


參考內容:https://liyaguang.github.io/iclr2018-stats




本次直播將關注:如何開發一個能夠真正下載到嵌入式 GPU 環境的深度學習應用?


點擊閱讀原文,立即報名

相關焦點

  • 【重磅】深度學習頂會ICLR2018評審結果出爐,一文快速了解評審分析簡報和評分最高的十篇論文
    ICLR 採用Open Review 評審制度。Open Review 則非常不同,根據規定,所有提交的論文都會公開姓名等信息,並且接受所有同行的評價及提問(open peer review),任何學者都可或匿名或實名地評價論文。而在公開評審結束後,論文作者也能夠對論文進行調整和修改。這幾天ICLR 2018的審稿結果陸續出來了,讓我們來看一下。
  • ICLR 2019評審結果出爐!一文看全平均8分論文
    ,相比沸沸揚揚的NIPS評審爭議,ICLR的評審結果沒有出現太多爭論。Rebuttal和討論的期間是11月5日到11月21日,這期間作者可以回複評審人的評論,並對論文進行修改。有人做了一個網站:https://chillee.github.io,列舉了得分前200的論文和它們的得分。
  • ICLR公布論文接收結果,Oral論文華人一作佔三分之一
    原創: 文摘菌 大數據文摘大數據文摘出品幾小時前,ICLR(國際學習表徵會議)組委會公布了今年的論文接收結果,今年,ICLR共收到了2594篇論文投稿,相比去年的1591篇論文投稿,增加了38.7%。
  • 數十篇滿分論文,接收率26.5%,ICLR2020接收結果,明年非洲見
    今年的 ICLR 也不算風平浪靜,先是投稿數量爆炸導致審稿負擔急劇增加,結果被爆出一半審稿人根本沒在相關領域發過論文,輿論風向一度演化為「機器學習同行評審崩塌了」。 之後,又有網友摘出某篇由滿分『8-8-8』轉為超低分『1-1』的論文,質疑 ICLR 評審結果的權威性。「頂會審稿水平到底行不行」這個話題再一次鬧得紛紛揚揚。
  • ICLR2018 | 深度學習頂會見聞,乾貨資源都在這裡(附源碼、論文連結)
    第六屆ICLR於2018.4.30~2018.5.03在溫哥華會展中心召開,筆者署名的一篇文章有幸被workshop接收且受邀參會,下面聊一聊個人在ICLR2018上的見聞。ICLR2018會議大觀ICLR 2018共計收到1003篇論文投稿,最終2.3%的Oral論文、31.4%的Poster論文、9%被接收為Workshop track,51%的論文被拒收、6.2%的撤回率。
  • 數十篇滿分論文,接收率26.5%,ICLR 2020接收結果已出,明年非洲見
    機器之心報導機器之心編輯部經歷了一系列審稿風波,ICLR 2020 的論文接收結果終於塵埃落定。今天,ICLR 2020 公布了論文接收結果。從目前的情況來看,今年的滿分論文最多可能達到 30 多篇,國內清華、上交、南大、哈工大、西安電子科技大學等國內高校以及華為、字節跳動等國內名企都有可能出現滿分論文(有些評審意見還沒給出)。
  • 一文盡覽 ICLR 2019 Facebook & Google 入選論文
    論文入選結果公布,各大公司和研究院紛紛在博客上公布了今年入選的論文。其中,Facebook 戰果滿滿,一共有 23 篇論文入選。值得注意的是,2018 年圖靈獎得主 Yann LeCun 是其中兩篇入選論文的共同作者之一。Facebook 人工智慧研究院研究員、圍棋項目負責人田淵棟博士也參與了其中兩篇論文的寫作。而一直備受關注的 Google 在今年也有 57 篇論文入選了 ICLR 2019,其中,oral 論文有三篇。
  • ICLR論文評分「高臺跳水」:領域主席急剎車,評審結果8分變1分
    發帖者表示自己並不是這篇論文的作者,也並不熟悉這篇論文,但評審結果著實令 ta 感到震驚。論文和評審結果地址:https://openreview.net/forum?論文分數經歷「高臺跳水」的背後究竟是怎麼一回事?從評審結果中我們可以發現一些線索。審稿意見大反轉為什麼這篇論文會先後從 8-8-8 的「完美」分數瞬間跌落?機器之心整理了論文內容和審稿意見。
  • ICLR2019七大爭議論文:是評審不公,還是論文真不行
    因論文評審全公開而頗受好評的ICLR,今年組委會特意延後了截稿時間,選出幾篇最具爭議的論文貼出來供業界討論。究竟該得1分還是9分?是埋沒的金子還是路邊的石頭?一起來看。評分:9:被錄取論文的前15%,強烈接收置信度:5:審稿人完全確定評估是正確的,對相關文獻非常熟悉評審人2:bad clustering
  • ICLR 2021公開評審,這些信息點和高贊論文不可錯過!
    作者 | 陳大鑫 近日,機器學習頂會ICLR 2021投稿已經結束,最後共有3013篇論文提交。ICLR 採用公開評審(openreview)機制,任何人都可以提前看到這些論文。id=ICLR.cc/2021/Conference本文整理了來自ICLR 2021投稿概覽以及一些高贊論文,其中有一篇將Transformer應用於圖像識別的論文引起了NLP/CV模型跨界融合的熱議。
  • ICLR 2017即將開幕,機器之心帶你概覽論文全貌
    直播地址:https://www.facebook.com/iclr.ccICLR 全稱為「International Conference on Learning Representations(國際學習表徵會議)」。2013 年,深度學習巨頭 Yoshua Bengio、Yann LeCun 主持舉辦了第一屆 ICLR 大會。
  • ICLR 2017即將開幕,機器之心帶你概覽論文全貌(附最佳論文與直播地址)
    (註:文中作者使用 JavaScript 進行的可視化動態展示,此文不便於展示,感興趣的讀者可在這裡查看:http://prlz77.github.io/iclr2017-stats)首先,他使用 GloVe 算法對論文摘要詞語進行了可視化,詞語用 t-SNE 技術做了降維:正如所料,網絡、架構、數據、學習……是最常見的詞。
  • ICLR 2017匿名評審惹爭議,盤點10篇被拒卻值得一讀的好論文
    另外,ICLR 的官方 Facebook 主頁有視頻直播,現在也已能看到部分錄製的視頻:https://www.facebook.com/iclr.cc十篇被拒的好論文研究者與開發者、Intuition Machine 聯合創始人 Carlos E. Perez 在 Medium 上發布了一篇文章,介紹了那些 ICLR 2017 卻不幸被拒,但仍有價值的十篇論文。
  • 2018年度全省青少年訓練教練員論文評選結果出爐
    2月1日,省體育局發布通知,公布2018年度全省青少年訓練教練員論文評選結果,經論文評審委員會評審,評出一等獎5名,二等獎10名,三等獎15名,優秀組織獎5個。  共有14個市和省體校報送教練員論文282篇,其中相似度符合要求的合格論文165篇,佔比58.5%。
  • ICLR2019 review結果出爐
    這個一年一度的會議雖然今年2018年辦到第七屆,但已經被學術研究者們廣泛認可,被認為「深度學習的頂級會議」。這個會議由位列深度學習三大巨頭之二的 Yoshua Bengio 和 Yann LeCun 牽頭創辦。Yoshua Bengio 是蒙特婁大學教授,深度學習三巨頭之一,他領導蒙特婁大學的人工智慧實驗室(MILA)進行 AI 技術的學術研究。
  • ICLR 開幕,今年組委會總結了哪些論文投遞亮點?| ICLR 2017
    Ranzato 同時指出,由於今年投遞論文的人數過多,有 50% 的論文沒能在規定時間內進行評審,不得不緊急調動了多名學者加班加點。而得益於 OpenReview 的平臺,論文或多或少都得到了非評審團的評點和討論,但它對論文改進所起的作用,Ranzato 覺得就見仁見智了。
  • ICLR 2018 DeepMind論文精華一覽
    AI 前線導讀:4 月 30 號至 5 月 3 號,數百名研究人員將齊聚加拿大溫哥華,參加第六屆國際學習表徵大會。以下是 DeepMind 已經通過審查的論文合集以及演講內容。更多乾貨內容請關注微信公眾號「AI 前線」,(ID:ai-front) 
  • 深度學習盛會 ICLR-17 最佳論文出爐!機器自主編程 NPI 再稱雄
    】深度學習盛會 ICLR 2017 日程及最佳論文今日出爐,新智元第一時間為你整理。接下來,我們將簡要介紹在為期 3 天的時間裡,ICLR 邀請的講者、覆蓋的議題(這部分內容在後面),以及我們今天的主菜——三篇 ICLR-17 最佳論文。在編輯角度上,我們不僅翻譯了摘要,還節選了一些評審意見,包括 ICLR 評委會的意見和網友的討論,其中不乏犀利的評價,讓你能夠對內容有一個比較全面的把握。今年的最佳論文在內容上非常值得一看。
  • ICLR 2020接收結果已出,明年非洲見
    今年的 ICLR 也不算風平浪靜,先是投稿數量爆炸導致審稿負擔急劇增加,結果被爆出一半審稿人根本沒在相關領域發過論文,輿論風向一度演化為「機器學習同行評審崩塌了」。之後,又有網友摘出某篇由滿分『8-8-8』轉為超低分『1-1』的論文,質疑 ICLR 評審結果的權威性。「頂會審稿水平到底行不行」這個話題再一次鬧得紛紛揚揚。
  • 本科畢業生成為NIPS 2018論文同行評審
    在 NIPS 2018 大會論文接收即將結束之時,一名本科剛剛畢業的學生成為大會論文同行評審的消息引起了人們的熱烈討論。而作為大會學術內容最重要的部分,會議論文是眾人關注的焦點。據悉,今年的 NIPS 大會將於 12 月 3 日至 8 日於加拿大蒙特婁舉辦,而本次大會論文的提交 Deadline 是 5 月 18 日。就在今天...... 現在倒計時 17 個小時。