©作者 | 安悅瑄
單位 | 東南大學PALM實驗室
研究方向 | 小樣本學習、自監督學習
如何從有限的樣本中學習可遷移的特徵表示是小樣本學習(Few-Shot Learning)的一個關鍵挑戰。最近,自監督學習作為輔助任務被加入到小樣本主任務的學習中,以提高小樣本學習的表徵能力。然而,傳統的自監督學習方法往往依賴於大量的訓練樣本。在小樣本場景中,由於缺乏足夠多的樣本,這些自監督方法可能學習到一種有偏的表示,從而導致對主任務的錯誤指導,引起小樣本學習的性能下降。
本文提出條件自監督學習(Conditional Self-Supervised Learning,CSS)方法,利用先驗知識指導自監督任務的表徵學習。具體而言,CSS 利用有標記數據中固有的監督信息,改進自監督學習特徵流形,從而減少表示偏差,以挖掘更有效的語義信息。另外,CSS 分別通過監督學習和改進的自監督學習挖掘出更多有意義的信息,並將這些信息整合成一個統一的分布,進一步豐富和拓展了原有的表示方法。大量實驗表明,與現有的小樣本學習方法相比,本文提出的方法在不進行任何微調的情況下,能夠顯著提高小樣本分類的準確率。
收錄會議:
論文連結:
https://www.ijcai.org/proceedings/2021/295代碼連結:
https://github.com/anyuexuan/CSS與以往的深度學習方法需要大量人工標註數據不同,小樣本學習僅需少量樣本即可識別新的類別。最近的視覺小樣本學習方法可以通過訓練基類上的一組任務來學習可遷移的特徵表示,並使用少量的樣本將這種表示遷移到新(未見)類中 [1]。然而,由於數據的稀缺性,得到的監督信息主要集中在基類樣本的差異上,而忽略了對新類有價值的語義信息。因此,對於小樣本分類問題,需要從有限的樣本中提取更多的語義信息以獲取更好的特徵表示。自監督學習作為一種重要的學習範式,在不依賴標記的情況下,能夠探索出良好的視覺表徵 [2]。通常情況下,自監督學習通過對原始數據進行增強操作(如旋轉)來構造增強視圖,並構建可學習的任務來建立增強視圖和原始視圖的聯繫,從而從這些任務中學習自監督表示。另一種自監督方法使用對比損失,該損失使得來自相同數據的視圖的表示(「正對」)更接近,不同數據的視圖的表示(「負對」)更加分散。近年來,自監督學習被應用於小樣本分類中。這些基於自監督的小樣本學習方法以自監督任務為輔助任務,以原始的小樣本分類任務為主任務,共同學習同一個特徵表示 [3]。然而,自監督通常依賴於大量訓練樣本,不適合小樣本場景。而自監督學習任務在小樣本場景中的直接應用可能學習到一些不適當的「捷徑」(如邊緣的連續性),而不是關鍵的語義信息。因此,自監督學習可能存在偏差,導致對主任務的錯誤指導,引起性能下降。為了解決上述問題,我們提出了條件自監督學習(CSS),它可以更好地適應小樣本分類。CSS 分別從有監督的小樣本學習和自監督學習中學習兩種特徵表示。對於自監督部分,CSS 利用監督信息作為教師指導自監督學習。最後,將所有的信息整合到一個統一的分布中,進一步豐富了原有的表徵。因此,CSS 學習可以舉一反三,進一步提高小樣本的泛化性能。值得注意的是,我們的方法與半監督學習方法有本質的區別,不需要任何輔助的未標記數據。圖 1 所示,CSS 採用三階段訓練方式。首先,在預訓練階段,CSS 通過原有的有監督學習方法學習初始特徵提取器