雷鋒網(公眾號:雷鋒網)AI科技評論按:ICLR 2017 於4月24-26日在法國土倫舉行,雷鋒網AI科技評論的編輯們在法國帶來一線報導。在這個深度學習會議舉辦之際,雷鋒網也將圍繞會議議程及論文介紹展開一系列的覆蓋和專題報導,敬請期待。
據雷鋒網了解,這是一篇來自Twitter的研究員給ICLR 2017投遞的論文。目前論文已經被錄用而且還獲得了ICLR委員會的高度評價。想知道研究員在論文中又提出了什麼新的研究思路?或者ICLR委員會對這項工作的評價如何?那就趕緊跟隨小編來看看吧。
以下內容是AI科技評論根據論文內容進行的部分編譯。
雖然當下深度神經網絡算法在大規模數據集上取得了巨大的成功,但是這類算法在少量學習(Few-shot Learning)任務中的表現卻往往不如人意,這是因為在少量學習任務中要求分類器能夠在經過每個類別的少量樣本訓練之後快速具備泛化能力。
現在大家通常都認為,要使得一個基於梯度下降優化算法的分類器能具備較好的表現就需要在大量訓練樣本上進行多次訓練迭代。而在本次的論文工作中,來自Twitter的研究員推出了基於LSTM的元學習模型(LSTM-based meta-learner model),該模型可以學習到精確的優化算法來訓練另外一個用於少量學習任務的神經網絡分類器。
基於LSTM的元學習模型的參數化特性允許它針對在需要一定量更新的特定場景下學習合適的參數更新方式,同時也可以學習到那些分類器網絡參數的通用初始化方式,從而加速分類器的訓練和擬合過程。
並且在論文中,研究員們還證明了這種元學習模式與用於少量學習的深度度量學習技術相比具有很強的競爭力。
該論文的作者提出了一種元學習模式來解決少量學習的問題。論文中提到的算法非常有趣並且實驗結果也非常具有說服力。這是篇非常適合時宜的文章,它將在社區中受到廣泛的關注。三位評審員都給出了一致的意見——接受,而且其中兩位還顯得特別熱情。論文的作者也回復了其他一些對該論文持負面態度的審稿人所提出的疑問。不過該論文還需要繼續完善以便把其中的更多細節闡述清楚。總的來說,這篇論文已經被接受了。
匿名審稿人3
這項工作提出了一個基於LSTM的元學習框架,該框架可以學習到優化算法以用於訓練其它的學習算法(這裡是神經網絡算法)。本文通篇都寫得很好,並且主要材料的介紹也寫得很清楚。本文的核心:繪製Robbins Monroe更新規則和LSTM更新規則之間的並行,並利用它來滿足少量學習的兩個主要目標這一點非常有趣。
這篇論文通過將隨機梯度下降法(SGD)的更新規則解釋為具有可訓練參數的門控循環模型(Gated recurrent model),從而提出了一種全新的元學習方法。這個創意對於遷移學習(Transfer learning)的研究具有重要意義。論文的結構清晰,但是在某些細節方面的描述還可以提升。
via Optimization as a Model for Few-Shot Learning
雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。