來源:einstein.ai
編輯:白峰
【新智元導讀】繼MoCo和SimCLR之後非監督學習的又一裡程碑!Salesforce的華人科學家(Junnan Li)介紹了一種新的非監督式神經網絡學習方法,這種方法能夠從數百萬個未標記的圖像中訓練深層神經網絡,讓我們離機器智能又進了一步。本文提出的原型對比學習(PCL) ,統一了非監督式學習的兩個學派: 聚類學習和對比學習。PCL 推動了機器學習和人工智慧的聖杯--非監督式學習技術的進步,並向無需人類指導的機器智能邁出了重要的一步。
深層神經網絡在許多方面取得了前所未有的進展,比如圖像分類和目標檢測。大部分的進步都是由監督式學習 / 標籤模式驅動的,得到這麼好的性能很大程度上依賴於大量帶有人工注釋的標籤(例如 ImageNet)。
然而,手工標註的成本是十分昂貴的,很難擴大規模。另一方面,網際網路上存在著幾乎無限量的未標記圖片。非監督式學習是唯一適合開發未標記數據這個大金礦的方法。
首先,讓我們來談談兩個流行的非監督式學習算法學派: 聚類和對比學習。
聚類:機器學習中最常見的非監督式學習任務之一。
它是將數據集劃分為若干個組的過程,聚類算法將相似的數據點組合在一起,而不同的數據點組合在不同的組中。
在所有的聚類方法中,K 均值是最簡單和最流行的方法之一。它是一個迭代算法,目的是將數據集劃分為 k 組(聚類) ,其中每個數據點只屬於一類,聚類中每個數據點和聚類質心(屬於該聚類的所有數據點的算術平均值)平方距離之和最小。
對比學習: 非監督式學習的一個新興學派
隨著深層神經網絡的出現,對比非監督式學習已經成為一個流行的方法學派,它訓練深層神經網絡而不用標籤。經過訓練的網絡能夠從圖像中提取有意義的特徵(表示) ,這將提高其他下遊任務的性能。
對比非監督式學習主要是從數據本身學習有用的表徵,所以也稱為對比自我監督學習。
許多最先進的對比學習方法(例如 MoCo 和 SimCLR )都是基於實例辨別的任務。
實例鑑別訓練一個網絡來分類兩個圖像是否來自同一個源圖像,如圖 1(a)所示。該網絡(例如 CNN 編碼器)將每個圖像裁剪投影到一個嵌入中,並將同源的嵌入彼此拉近,同時將不同源的嵌入分開。通過解決實例識別任務,期望網絡學習到一個有用的圖像表示。
實例鑑別在無監督表徵學習中表現出了良好的性能。然而,它有兩個局限性。
首先,利用低層線索就可以區分不同的實例,因此網絡不一定學習到有用的語義知識。
其次,如圖 1(b)所示,來自同一個類(cat)的圖像被視為不同的實例,它們的嵌入被推開。這是不可取的,因為具有相似語義的圖像應該具有相似的嵌入。為了解決上述缺點,我們提出了一種無監督表徵學習的新方法: 原型對比學習(PCL)。
原型對比學習是無監督表徵學習的一種新方法,它綜合了對比學習和聚類學習的優點。
在 PCL 中,我們引入了一個「原型」作為由相似圖像形成的簇的質心。我們將每個圖像分配給不同粒度的多個原型。訓練的目標是使每個圖像嵌入更接近其相關原型,這是通過最小化一個 ProtoNCE 損失函數來實現的。
在高層次上,PCL 的目標是找到給定觀測圖像的最大似然估計(MLE)模型參數:
我們引入原型 c 作為與觀測數據相關的潛在變量,提出了一種期望最大化算法來求解最大似然估計。在 E-step 中,我們通過執行 K 平均算法估計原型的概率。在 m 步中,我們通過訓練模型來最大化似然估計,從而最小化一個 ProtoNCE 損失:
在期望最大化框架下,我們可以證明以前的對比學習方法是 PCL 的一個特例。作者簡介:Junnan Li,Salesforce亞洲研究院科學家,香港大學電子工程學學士,新加坡國立大學計算機博士,主要研究方向計算機視覺和深度學習、非監督式學習,弱監督學習,遷移學習和社交場景理解。
https://blog.einstein.ai/prototypical-contrastive-learning-pushing-the-frontiers-of-unsupervised-learning/https://sites.google.com/site/junnanlics/