Twitter 又一力作:對Few-shot learning中的優化進行建模 | ICLR...

2020-12-13 雷鋒網

雷鋒網(公眾號:雷鋒網)AI科技評論按:ICLR 2017 於4月24-26日在法國土倫舉行,雷鋒網AI科技評論的編輯們在法國帶來一線報導。在這個深度學習會議舉辦之際,雷鋒網也將圍繞會議議程及論文介紹展開一系列的覆蓋和專題報導,敬請期待。

據雷鋒網了解,這是一篇來自Twitter的研究員給ICLR 2017投遞的論文。目前論文已經被錄用而且還獲得了ICLR委員會的高度評價。想知道研究員在論文中又提出了什麼新的研究思路?或者ICLR委員會對這項工作的評價如何?那就趕緊跟隨小編來看看吧。

以下內容是AI科技評論根據論文內容進行的部分編譯。

論文摘要

雖然當下深度神經網絡算法在大規模數據集上取得了巨大的成功,但是這類算法在少量學習(Few-shot Learning)任務中的表現卻往往不如人意,這是因為在少量學習任務中要求分類器能夠在經過每個類別的少量樣本訓練之後快速具備泛化能力。

現在大家通常都認為,要使得一個基於梯度下降優化算法的分類器能具備較好的表現就需要在大量訓練樣本上進行多次訓練迭代。而在本次的論文工作中,來自Twitter的研究員推出了基於LSTM的元學習模型(LSTM-based meta-learner model),該模型可以學習到精確的優化算法來訓練另外一個用於少量學習任務的神經網絡分類器。

基於LSTM的元學習模型的參數化特性允許它針對在需要一定量更新的特定場景下學習合適的參數更新方式,同時也可以學習到那些分類器網絡參數的通用初始化方式,從而加速分類器的訓練和擬合過程。

並且在論文中,研究員們還證明了這種元學習模式與用於少量學習的深度度量學習技術相比具有很強的競爭力。

ICLR 委員會的定稿意見

該論文的作者提出了一種元學習模式來解決少量學習的問題。論文中提到的算法非常有趣並且實驗結果也非常具有說服力。這是篇非常適合時宜的文章,它將在社區中受到廣泛的關注。三位評審員都給出了一致的意見——接受,而且其中兩位還顯得特別熱情。論文的作者也回復了其他一些對該論文持負面態度的審稿人所提出的疑問。不過該論文還需要繼續完善以便把其中的更多細節闡述清楚。總的來說,這篇論文已經被接受了。

匿名審稿人3

這項工作提出了一個基於LSTM的元學習框架,該框架可以學習到優化算法以用於訓練其它的學習算法(這裡是神經網絡算法)。本文通篇都寫得很好,並且主要材料的介紹也寫得很清楚。本文的核心:繪製Robbins Monroe更新規則和LSTM更新規則之間的並行,並利用它來滿足少量學習的兩個主要目標這一點非常有趣。

匿名審稿人2

這篇論文通過將隨機梯度下降法(SGD)的更新規則解釋為具有可訓練參數的門控循環模型(Gated recurrent model),從而提出了一種全新的元學習方法。這個創意對於遷移學習(Transfer learning)的研究具有重要意義。論文的結構清晰,但是在某些細節方面的描述還可以提升。

via Optimization as a Model for Few-Shot Learning

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • ...又一力作:對Few-shot learning中的優化進行建模 | ICLR 2017
    據雷鋒網了解,這是一篇來自Twitter的研究員給ICLR 2017投遞的論文。想知道研究員在論文中又提出了什麼新的研究思路?或者ICLR委員會對這項工作的評價如何?那就趕緊跟隨小編來看看吧。以下內容是AI科技評論根據論文內容進行的部分編譯。
  • ICLR 2017 | Highlight 1: Meta- and Few-shot Learning
    剛剛參會回來的小S 經過多方學習,總結出了幾個專題,也是個人認為現在 ICLR 等 learning 和 DL 相關會議與學者比較關注的方向。首當其中可能就是比較 fancy 但其實很本質的 meta-learning 和 few-shot learning。
  • 【NLP筆記】Few-shot learning 少樣本學習
    learning,這裡shot 有計量的意思,指少樣本學習,機器學習模型在學習了一定類別的大量數據後,對於新的類別,只需要少量的樣本就能快速學習,對應的有one-shot learning, 一樣本學習,也算樣本少到為一的情況下的一種few-shot learning, 這裡的少樣本學習的研究領域與遷移學習有一大部分交集部分,即在源域有足夠多樣本,而在目標域樣本不足。
  • 小樣本學習(Few-shot Learning)綜述
    few-shot learning framework。,藉助最近鄰的思想完成分類;Optimization Based 方法認為普通的梯度下降方法難以在 few-shot 場景下擬合,因此通過調整優化方法來完成小樣本分類的任務。
  • 從Few-shot Learning再次認識機器學習
    那在這裡,怎麼將meta learning和few shot learning聯繫起來呢?few shot learning需要將先驗知識嵌入進模型中去,使得最優化算法在搜索的時候,能縮小搜索空間,或者是達到快速搜索的目的,這就需要模型能有一個較好的初始化參數,而這個較好的初始化參數就是需要通過meta learning的方式訓練得到。
  • 最新小樣本學習Few-Shot Learning的四大Model方法
    儘管任務不變式嵌入不會使用few-shot DtrainDtrain的嵌入模型更新參數,但該類別中的許多方法[121、126、138]都會在訓練嵌入模型的時候模擬few-shot場景。在每個Dc中,僅從N個類別中採樣U個類別進行訓練。嵌入模型通過最大化剩下的N-U個類別的性能來進行優化。因此,學習到的模型對於few-shot 任務具有較好的泛化性。一個早期的嘗試[127]從{Dc}中學習了一個線性嵌入。最近,一個更加複雜的task-invariant 嵌入模型通過meta-learning 方法學習得出。
  • Few-shot Learning用於個性化推薦冷啟動的探索
    即要求模型從 C*K 個數據中學會如何區分這 C 個類別,這樣的任務被稱為 C-way K-shot 問題。訓練過程中,每次訓練(episode)都會採樣得到不同 meta-task,所以總體來看,訓練包含了不同的類別組合,這種機制使得模型學會不同 meta-task 中的共性部分,像如何提取重要特徵及比較樣本相似等。
  • 聊聊zero-shot learning 和 one-shot learning
    首先來看一篇比較經典的zero-shot learning相關的paper (http://101.96.10.65/www.cs.cmu.edu/afs/cs/project/theo-73/www/papers/zero-shot-learning.pdf)。這篇paper是NIPS 2009中的一篇論文,作者來自CMU,Intel及多倫多大學。
  • One-Shot Relational Learning for Knowledge Graphs-2
    learning的實驗,分別是WIKI和NELL;2)提出了一種應用於關係預測的one-shot learning框架,模型只依賴於實體embedding和圖譜結構,學習匹配度量函數,利用預測三元組與參考三元組的相似度對新增關係進行預測,相比其他基於embedding的模型取得了更好地效果;3)提出針對long tail relation問題將其轉化為few shot任務的思路
  • 蒙娜麗莎.gif:三星新研究用一張圖像合成動圖,無需3D建模
    這位神秘的畫中人也能做出各種 gif 表情?來自三星莫斯科 AI 中心和 Skolkovo 科學技術研究所的研究人員創建了一個模型,利用這個模型可以從一張圖像中生成人物頭像的動圖,而且是開口說話的動圖。而且,這一模型沒有採用 3D 建模等傳統方法。開口說話的蒙娜麗莎好像看著沒那麼高冷。
  • 在深度學習頂會ICLR 2020上,Transformer模型有什麼新進展?
    為此,該模型主要包括:僅允許在整個模型中存儲單個激活單元副本的可逆層;用位置敏感哈希法(LSH)近似用快速最近鄰算法計算的注意力值。因此,一個新的數據集被提出,用於解決對基於事實信息的自然語言表達進行建模的問題。這一數據集用包括來自維基百科的1萬6千個表格和來自人工標註為ENTAILMENT或者REFUTED的11萬8千個標籤來表示事實數據。目前基模型的表現還很一般,所以現在如何創新性地解決這一問題仍令人激動。
  • 一文盡覽 ICLR 2019 Facebook & Google 入選論文
    在這項工作中,我們計劃訓練一個策略,同時明確懲罰這兩個分布之間在固定時間範圍內的不匹配。我們通過使用一個已學習的環境動力學模型來實現這一點,該模型展開了多個時間步驟,並訓練了一個策略網絡,以最大限度地降低在這個展開的軌跡上的可區分成本。這一成本包含兩種形式:代表策略尋求優化目標的策略成本,以及代表其與受訓狀態的差異的不確定性成本。
  • Few-Shot Learning概述
    半監督學習的典型例子是Positive-Unlabeled Learning,很多Two-step算法通過正樣本和無標記樣本訓練分類器,直接擴大正樣本規模、或利用分類器權重讓無標記樣本參與到正樣本的學習中;而主動學習選擇對模型訓練最「有用」的樣本進行標註。半監督學習和主動學習適合有大量無標記數據、但樣本標註成本較高的場景。
  • Human-like learning在對話機器人中的魔性運用
    ▎先介紹一下你們產品中強調的Human-like learning是什麼?對話模型中的One-shot Learning和RL(增強學習)。上述這兩種學習方法更接近生物體,或者說人的學習方式,所以我更願意稱之為「Human-like Learning」。
  • 【深度神經網絡 One-shot Learning】孿生網絡少樣本精準分類
    最近湧現出來很多有趣的基於神經網絡的單樣本學習論文,它們已經得到了一些不錯的結果。這是一個讓我很激動的新領域,所以我想去對它做一個簡要介紹,來讓深度學習新手更好的認識它。接下來以一個有趣的問題就是,我們如何設計一個神經網絡讓它來學習特徵?最顯而易見的方法就是用遷移學習(如果有標記數據的話)——在訓練數據上訓練一個softmax分類器,然後在單樣本學習任務的數據集上微調最後一層的權重。實際上,神經網絡分類器在Omniglot數據集上不會有什麼良好的表現,因為每類的樣本僅有幾個,即使是微調最後一層的權重,網絡也會在訓練集上過擬合。
  • 梳理 | 機器人學習(Robot Learning)的發展
    這個方法是Sergey Levine提出的,通過與傳統方法結合,確實可以讓機器人學習出一些有意思的技能,但是有個根本問題擺在面前,就是傳統方法通常需要知道整個系統的模型,而這在實際的機器人中非常難以適用。就比如四軸飛行器的控制,我們可以通過外部的Vicon設備來精確的定位四軸飛行器的位置,從而實現對其精確控制,但是在戶外,我們根本就做不到這點,也就無法精確建模。
  • Few-Shot學習文獻閱讀(1)
    我們發現,IFSL在每一英寸上都優於所有基線。如果數據集D可以重新組織為訓練集{(Si, Qi)},每一個都可以看作是一個「沙盒」,具有相同的N-shot-K-way設置作為目標(S, Q)。然後,我們可以從參數化的D中建模「學習行為」,這可以通過上述微調範式學習每一個(Si , Qi)氣)。形式上,我們表示P (y|x)作為增強的帶有學習行為的分類器。
  • ICLR 2019評審結果出爐!一文看全平均8分論文
    如果以後每個人都開始使用你的relativistic GAN,那麼它在哪裡發表實際上是無關緊要的(比如GAN、WGAN、AlphaGo,無論在哪裡、發表與否,都無法否認它們是偉大的工作這一事實)。下面,我們選取ICLR 2019目前得分排名前6(≥8.00)的論文作簡要介紹。
  • 元學習--北大學姐博士階段收官之作ACL2020
    在機器學習中,訓練單位是一條數據,通過數據來對模型進行優化;數據可以分為訓練集、測試集和驗證集。在元學習中,訓練單位分層級,第一層訓練單位是任務。元學習中要準備許多任務來進行學習,第二層訓練單位才是每個任務對應的數據。