港中文MMLab自步對比學習:充分挖掘無監督學習樣本

2020-11-05 將門創投

作者:香港中文大學多媒體實驗室三年級博士生 葛藝瀟

NeurlPS 2020系列論文解讀

第·2·期

本文介紹一篇港中文MMLab發表於NeurIPS 2020的論文《Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID》。該工作提出自步對比學習框架及混合記憶模型,旨在解決無監督及領域自適應表徵學習中數據無法被充分挖掘的問題。這項工作在無監督的目標重識別任務上顯著地超越最先進技術高達16.7%;領域自適應的目標重識別任務中,在無監督的目標域上超越最先進技術高達5.0%,同時可以提升有監督的源域性能高達6.6%。實驗結果充分證明其廣泛的應用場景及有效性:可被應用於解決無監督學習任務,也可被應用於利用額外無監督數據提升有監督學習的任務。

另外,葛藝瀟的Talk 「無監督及領域自適應的目標重識別」 將會在11月5日(周四)晚8點在TechBeat準時開播,感興趣的同學可以複製右邊連結預約 →

長文預警!建議收藏!

一口氣看完的朋友真的瑞斯拜

目錄

一、背景簡介

二、問題與動機

三、自步對比學習框架

四、統一對比損失函數

五、混合記憶模型

六、由簡入難的自步學習

七、算法流程

八、無監督重識別上的應用

九、實驗

十、總結


一、背景簡介

近年來,在無監督學習的浪潮下,無監督及領域自適應的目標重識別任務也逐漸受到大家的關注,在剛剛過去的ECCV 2020中,這個方向所發表的論文就有十餘篇。

目標重識別 (Object Re-ID)

包括行人重識別、車輛重識別等,旨在跨攝像機檢索和追蹤目標人物或車輛。重識別任務的關鍵之一是學習具有辨識性的特徵,並在多樣的條件變化下保持魯棒性。在如今深度學習盛行的時代,大規模數據集推動了目標重識別任務的快速發展,然而,領域差異及標註數據的高消耗等都成為了部署重識別算法中無法忽視的問題。

領域自適應的目標重識別 (Domain Adaptive Object Re-ID)

旨在通過源域有標註的數據和目標域無標註的數據進行訓練,從而在目標域上取得較好的性能。這裡區分一下一般分類任務上的領域自適應,分類任務上的兩個領域的類別往往有部分或者全部的重疊,而重識別任務上的兩個領域,大家一般認為類別完全沒有重複。這是由於領域自適應的重識別任務一般應用在:將城市A訓練的重識別模型應用於城市B、將虛擬合成數據訓練的重識別模型應用於真實世界的場景等。在這些場景中,兩個領域間的類別一般很難存在重複。

無監督的目標重識別 (Unsupervised Object Re-ID)

與上述領域自適應重識別非常相似,問題設置上的唯一區別在於沒有有標籤的源域數據。這裡著重區分一下目前很受關注的無監督預訓練 (Unsupervised Pre-training) 任務,存在兩點主要區別:

1) 無監督預訓練任務從網絡隨機初始化開始,無監督重識別任務從預訓練好的網絡開始;

2) 無監督預訓練的網絡需要經過fine-tune才可以應用在下遊任務上,而無監督重識別任務本身可以看作一個無監督的下遊任務,經過訓練的網絡可直接部署。

領域自適應重識別任務的研究歷史較無監督重識別任務而言較長一些,但本質上這兩項任務是非常相似的。正如上文所述,領域自適應重識別任務相較於無監督重識別任務而言,只是在問題設置上多出了有標籤的源域數據。所以,大部分的算法也都可以通用,因為很多領域自適應重識別算法只需要去除源域預訓練的步驟,即可應用於無監督重識別任務上。該論文所介紹的方法在這兩項任務上也都取得了很不錯的結果。

下面,將先以領域自適應重識別任務為例介紹方法,再講解如何應用於無監督重識別任務。


二、問題與動機

解決領域自適應重識別任務的算法可以分為兩類:偽標籤類和域轉換類。目前偽標籤類可以獲得更好的性能,而偽標籤類中的基於聚類的偽標籤法較為有效,所以本文所基於的baseline是基於聚類的偽標籤算法

目前大部分基於聚類的偽標籤算法 (如SSG、MMT等) 在訓練上分為兩步

  • 第一步,在源域上利用有標籤的源域數據進行有監督的預訓練;
  • 第二步,在預訓練的模型基礎上,利用目標域無標籤的數據及其聚類產生的偽標籤進行fine-tune。

這樣的算法流程目前已經可以獲得相對令人滿意的結果,但他們仍然存在兩點缺陷

1) 在第二步的目標域訓練中忽略了源域數據 (僅用於預訓練) ,但作者認為源域的數據由於具有真實準確的標籤,所以應當被充分利用;

2) 在基於聚類的偽標籤法中,往往沒有用到全部的目標域無標籤數據,因為基於密度的聚類 (如DBSCAN等) 本身會產生聚類離群值 (outlier) ,這些聚類離群值由於無法分配偽標籤,所以被丟棄,不用於訓練。但作者認為,這樣的聚類離群值往往正是那些值得挖掘的困難訓練樣本。尤其在訓練的早期,往往存在大量的聚類離群值,若簡單丟棄它們,訓練樣本將大幅減少。

所以,如何合理地挖掘所有可用的信息,是提升性能的關鍵。如上圖所示,作者提出在訓練中使用全部的源域數據和目標域數據,並利用一個混合記憶模型 (Hybrid Memory) 來提供監督:對於源域數據而言,監督是他們真實的標籤;對於目標域聚類內的數據而言,監督是他們的聚類標籤;對於目標域的聚類離群值而言,他們每張圖本身被看作一個單獨的類,所以監督是實例級的標籤。作者將所有的源域類、目標域聚類、目標域每個聚類離群值實例看成平等的類別。


三、自步對比學習框架

以下是該文所提出的自步對比學習 (Self-paced Contrastive Learning) 框架,包括一個圖像特徵編碼器 (Encoder) 和一個混合記憶模型 (Hybrid Memory)。核心是混合記憶模型在動態變化的類別下所提供的連續有效的監督,以統一對比損失函數 (Unified Contrastive Loss) 的形式監督網絡更新,實現起來非常容易,且即插即用,下文將具體介紹。

四、統一對比損失函數

類別原型 (Class Prototype) 可以理解為該類別中較為有標誌的特徵,例如無偏分類器中的權重 (Weights) 。在這裡,作者使用源域真實類別的類質心 (Class Centroids) 作為源域數據的類別原型{w},使用目標域聚類的質心 (Cluster Centroids) 作為聚類內的目標域數據的類別原型{c},使用目標域聚類離群值的實例特徵 (Outlier Instance Features)作為無聚類的目標域數據的類別原型{v}。作者所提出的混合記憶模型可以實時提供這三種類別原型以作訓練監督,後文將具體介紹這三種類別原型的更新過程。

對於每一組輸入的mini-batch,同時包含源域數據和目標域數據 (作者在編碼器中使用Domain-specific BNs來消除不同領域數據間的域差異) ,他們需要與上述三種類別原型進行比較。所以作者提出統一對比損失函數 (Unified Contrastive Learning) :

該損失函數可以使得每個訓練樣本靠近它所屬於的類別 (包含源域真實類、目標域聚類、目標域無聚類實例) ,而遠離其他類別。舉例來說,對於一個來自源域的樣本,其對應的正面原型 (Positive Prototype) 則是它真實類別所對應的質心 (Class Centroids) ;對於一個來自目標域的樣本,若其在聚類內,則正面原型為其所對應的聚類質心 (Cluster Centroids) ,反之,若其不在聚類內,為聚類離群值,則正面原型為該離群值所對應的實例特徵 (Outlier Instance Features) 。

其實, 「混合記憶模型 (Hybrid Memory) +統一對比損失函數 (Unified Contrastive Loss) 」與大家常用的「分類器 (Classifier) +交叉熵損失函數 (Cross-entropy Loss) 」在工作機理上非常相似,可以簡單的認為混合記憶模型是非參數化 (Non-parametric) 的分類器。

那麼,為什麼不用普通分類器來完成這一任務呢?這是由於目標域的聚類及聚類離群值在訓練過程中動態變化 (一般每個epoch前更新) ,無法使用固定的聚類ID及離群值實例ID訓練分類器。如若在每次更新完ID後需要重置分類器,分類器由於無法連續更新,會導致性能較差。有同學會問,以前的算法 (如MMT) ,每個epoch重置分類器依然訓練效果很好,這是為什麼?這是因為這些算法不使用聚類離群值進行訓練。試想,將每個聚類離群值也看做單獨的類加入分類器,而每個epoch只能遍歷到該類對應的樣本一次 (因為一個離群值是一個類) ,那麼,在類樣本數如此不平均的情況下,分類器幾乎得不到有效的訓練,便會被重置。

該文所提出的統一對比損失函數與自監督任務 (如MoCo、SimCLR等) 中常用的對比損失函數最主要的區別在於,該文同時考慮了三種不同的類別原型,而以前的對比損失函數隻考慮實例級的類別原型。他們將所有樣本看作獨立的類,進行實例區分 (Instance Discrimination) 訓練,這樣的算法很大程度上忽略了類內 (Intra-class) 關係,也就是同一ID的不同圖像間的聯繫,故以前的對比損失函數不適用於重識別任務。


五、混合記憶模型

上文中提到混合記憶模型 (Hybrid Memory) 實時提供三種不同的類別原型,那麼,這三種類別原型是如何動態地在混合記憶模型中連續更新變化的呢?作者提出使用動量更新 (Momentum Update),想必這個詞對大家來說並不陌生,在MoCo、Mean-teacher等模型中常有見到。簡單來說,就是以「參數= (1-動量)x新參數+動量x參數」的形式更新。這裡針對源域和目標域採取不同的動量更新算法,以適應其不同的特性。

對於源域的數據而言,由於具有真實的類別,作者提出以類為單位進行存儲。這樣的操作一方面節省空間,一方面在實驗中也取得了較好的結果。將當前mini-batch內的源域特徵根據類別算均值,然後以動量的方式累計到混合記憶模型中對應的類質心上去,詳見下圖。

對於目標域的數據而言,作者提出全部以實例為單位進行特徵存儲,這是為了讓目標域樣本即使在聚類和非聚類離群值不斷變化的情況下,仍然能夠在混合記憶模型中持續更新 (Continuously Update) 。具體而言,將當前mini-batch內的目標域特徵根據實例的index累計到混合記憶模型對應的實例特徵上去。

那麼,如何獲得目標域的聚類質心及離群值實例特徵呢?在混合記憶模型中,將同一聚類ID的特徵做平均,即可獲得聚類質心;而離群值的實例特徵則直接從混合記憶模型中提取剩下的實例特徵即可,如下圖。


六、由簡入難的自步學習

作者發現,由於聚類和聚類離群值都被看作平等且獨立的類,所以聚類的可靠性對訓練的影響至關重要。由於在訓練的一開始,網絡對於圖像的辨別性較差,聚類的噪聲也較大,所以作者借鑑自步學習 (Self-paced Learning) 的思想,先從最可靠的聚類開始,再逐步增加聚類,由簡入難。該文提出了一個聚類可靠性評價標準 (Cluster Reliability Criterion),保留可靠的聚類,而將不可靠的聚類拆解回無聚類的離群值實例。所提出的聚類可靠性評價標準分為聚類獨立性 (Cluster Independence) 聚類緊湊性 (Cluster Compactness)

聚類獨立性 (Cluster Independence) 體現為一個可靠的聚類應當具有良好的類間距離,通俗點來說,不能和附近的聚類「如膠似漆」。該文提出,放寬聚類的標準,例如DBSCAN中的最小類內距離,此時,如果該聚類與周圍的聚類融合成了一個大聚類、或者吸收了附近的離群值,那麼認為,該聚類的獨立性不太好。

該文使用一個IoU (Intersection over Union) 公式來計算聚類的獨立性。

聚類緊湊性 (Cluster Compactness) 體現為一個可靠的聚類內的樣本應該相互靠近,具有良好的類內距離。類似的,該文提出,縮緊聚類的標準,此時,如果該聚類被拆解成了多個小聚類、或者拆出了一些聚類離群值,那麼認為,該聚類的緊湊性不太好。

該文使用另一個IoU公式來計算聚類的緊湊性。

直觀地說,該聚類可靠性評價標準的出發點在於,一個可靠的聚類應當在多尺度的聚類環境下保持穩定。從下圖訓練的統計中可以看出,使用了聚類可靠性評價標準的模型 (紅色線) 相比較於未使用的模型 (藍色線) ,無論是在聚類的數量還是質量上,都離真實類別更近。


七、算法流程

以上介紹了核心的模塊,下面梳理一下具體訓練流程。

初始化 (Initialization) :圖像編碼器 (Encoder) 的初始化一般使用ImageNet Pre-trained Weights,混合記憶模型 (Hybrid Memory) 的初始化使用初始的編碼器對所有的樣本進行一次前向計算。

聚類和聚類離群值:在每個epoch前進行聚類,並根據聚類可靠性評價標準 (Cluster Reliability Criterion) 進行聚類的篩選,僅保留可靠的聚類,其餘樣本均視作聚類離群值。

網絡和混合記憶模型的更新:在每個iteration中,首先利用編碼器對mini-batch的樣本進行特徵編碼,然後利用統一對比損失函數 (Unified Contrastive Loss) 進行網絡的反向傳播更新,最後利用編碼的特徵以動量更新 (Momentum Update) 的方式更新混合記憶模型 (Hybrid Memory) 。

八、無監督重識別上的應用

在一開始曾提到,該方法也可以被有效利用在無監督重識別任務上,只需要將混合記憶模型和統一對比損失函數中有關源域的部分去掉即可。

無監督重識別任務上的自步對比學習框架如下:

對應的統一對比損失函數如下:


九、實驗

由於自步對比學習框架中可以同時訓練源域和目標域的數據,所以訓練是one-stage的,無需單獨的源域預訓練步驟。實驗中,作者針對多個真實及虛擬合成數據集進行了實驗,在行人重識別和車輛重識別任務上都測試了該方法的有效性。

領域自適應任務中,在無監督的目標域上均超越先前算法,在PersonX->MSMT17的任務上領先高達5.0%的mAP,這是由於在「虛擬合成->真實」的遷移任務中,由於聚類噪聲較大,產生的聚類離群值較多,所以該文所提出的充分挖掘所有樣本的方案所帶來的優勢將更為突出。

除此之外,一項有趣的發現是,VehicleID->VeRi-776與VehicleX->VeRi-776在目標域上獲得幾乎相似的性能,這說明,在未來,隨著領域自適應算法的不斷升級,可能再也不需要人為標註的源域數據來作為輔助了,可以使用虛擬合成的數據予以代替。

以前的算法由於在目標域的訓練中忽視了源域數據,所以難免忘記源域的信息,而該文提出的方法對源域和目標域數據進行了聯合訓練,在目標域性能提升的同時,也提升了有監督的源域性能。可以看到,在MSMT17-Market-1501的遷移訓練中,該文利用Market-1501的無標籤數據大幅提升了MSMT17上的有監督訓練性能 (+6.6%mAP) 。這意味著,本文所提出的算法可以被用於利用無標籤數據提升有監督訓練的任務。

同樣,在無監督重識別任務上,本算法也大幅領先已有的算法,在Market-1501的benchmark上領先高達16.7%的mAP。作者也將MoCo在無監督重識別任務上進行了復現,正如之前所介紹的,這類無監督預訓練任務的算法並不適用於無監督的重識別任務,因為他們將所有的樣本視作獨立的類,忽視了重識別任務中最重要的類內類間關係。再強調一下,MoCo這類算法適用於無監督預訓練任務,在應用於下遊任務上時需要fine-tune,而無監督重識別任務本身是一個下遊任務

細心的同學可能會發現,剛剛展示的結果中沒有涉及DukeMTMC-reID數據集的實驗,這是因為DukeMTMC-reID已經官方下架,在AC的要求下,需要在論文的最終版本中刪去所有有關DukeMTMC-reID的實驗結果。但是DukeMTMC-reID是行人重識別相關任務中常用的數據集,所以為了方便大家未來進行算法的調試和比較,在這裡也簡單展示一下DukeMTMC-reID相關的結果,更多的結果大家可以在arXiv的第一個版本中找到。


十、總結

該文提出了一個簡單有效的自步對比學習框架,核心思想是利用多種不同形式的類別原型提供混合監督,以實現對所有訓練數據的充分挖掘。雖然本文只在目標重識別任務上進行了實驗,但是提出的混合記憶模型及統一對比損失函數是即插即用的,有很大潛力在其他任務上取得較好的結果,歡迎大家嘗試。

如需轉載請註明來源:將門創投

//

作者介紹:

葛藝瀟,香港中文大學多媒體實驗室三年級博士生,師從李鴻升教授與王曉剛教授。此前於2017年從華中科技大學自動化學院獲得學士學位。目前主要研究方向為計算機視覺中的表徵學習,包括無監督學習、解耦學習、領域自適應學習等,及其在圖像檢索、圖像生成上的應用。曾以第一作者身份在NeurIPS、ICLR、ECCV等會議中發表多篇論文。


點擊標題閱讀往期精彩

NeurlPS 2020 論文解讀 ●●

// 1

相關焦點

  • 一行命令跑評測,港中文MMLab開源自監督表徵學習代碼庫
    自監督表徵學習發展迅速,但也存在諸多問題。近日,香港中文大學多媒體實驗室(MMLab)和南洋理工大學的研究者開源了一套統一的自監督學習代碼庫 OpenSelfSup。前言近幾個月來自監督表徵學習領域獲得了顯著突破,特別是隨著 Rotation Prediction、DeepCluster、MoCo、SimCLR 等簡單有效的方法的誕生,自監督表徵學習大有超越有監督表徵學習的趨勢。
  • 自監督、半監督和有監督全涵蓋,四篇論文遍歷對比學習的研究進展
    自監督學習意思是使用非人工標記數據進行學習。在機器學習中,比較著名的自監督方法就是自然語言處理中的 。由此可見,與無監督學習不同,自監督中仍然存在標記,只不過,這些標記不是人類參與生成的,而是從輸入數據中生成的,通常可以使用啟發式算法生成標記。
  • 港中文周博磊團隊最新研究:無監督條件下GAN潛在語義識別指南
    無監督條件下,GAN 模型潛在語義的識別似乎是一件非常具有挑戰性的任務。最近,香港中文大學周博磊等人提出了一種名為「SeFa」的方法,為該問題提供了更優解。現有的監督學習方法通常先隨機抽取大量潛碼,然後合成一組圖像,並使用一些預定義標籤進行圖像標註,最後利用這些標註樣本學習潛在空間中的分離邊界(separation boundary)。要想得到訓練該邊界的標籤,要麼引入預訓練語義預測器,要麼利用圖像的一些簡單統計信息。
  • SIGIR2020|圖靈獎得主Hinton:無監督對比學習將是神經網絡的未來
    人工神經網絡一直懸而未決的問題是如何像大腦一樣有效地進行無監督學習。 當前有兩種主要的無監督學習方法。 第一種方法,以BERT和變分自編碼為代表,使用深度神經網絡來重建其輸入。無監督對比學習才是神經網絡的未來
  • 73歲Hinton老爺子構思下一代神經網絡:屬於無監督對比學習
    Hinton 在此次報告中回顧了神經網絡的發展歷程,並表示下一代神經網絡將屬於無監督對比學習。Hinton 的報告主要內容如下:人工神經網絡最重要的待解難題是:如何像大腦一樣高效執行無監督學習。目前,無監督學習主要有兩類方法。第一類的典型代表是 BERT 和變分自編碼器(VAE),它們使用深度神經網絡重建輸入。
  • 當前最好的詞句嵌入技術概覽:從無監督學習轉向監督、多任務學習
    目前最常用的模型是 word2vec 和 GloVe,它們都是基於分布假設(在相同的上下文中出現的單詞往往具有相似的含義)的無監督學習方法。儘管此後有一些研究(https://arxiv.org/abs/1805.04032)通過引入語義或者句法的監督信息來增強這些無監督方法,但是純粹的無監督學習方法在 2017 年到 2018 年得到了令人關注的提升,最著名的是「FastText」(word2vec 的一種拓展)以及「ELMo」(目前最先進的基於上下文的詞嵌入技術)。
  • 李航《統計學習方法》第二版上線,6 年耕耘增加無監督學習
    統計學習即機器學習,是計算機及其應用領域的一門重要學科。此前,李航老師完成的《統計學習方法》是了解機器學習最好的教材之一,該書從 2005 年開始寫作一直到 2012 年完成,包含了眾多主要的監督學習算法與模型。最近,《統計學習方法》第二版正式發布,通過 6 年時間的努力,在第一版的基礎上又增加了無監督學習的主要算法與模型。
  • 全球中文學習平臺落戶青島!科大訊飛未來港啟用
    12月3日,在教育部國家語委的指導下,全球中文學習平臺落戶暨科大訊飛未來港啟幕儀式在青島西海岸新區舉行。目前,平臺已實現中文學習場景全面覆蓋,面向學前兒童、中小學生、成人普通話學習者、中國少數民族學習者、海外中文學習者等多樣化的用戶群體,提供個性化學習方案和學習工具,為全球中文學習者打造優質的學習環境。從2019年10月上線至今,全球中文學習平臺已經覆蓋169個國家,註冊用戶達203萬。
  • GAN用於無監督表徵學習,效果依然驚人……
    該論文提出的方法建立在 SOTA 模型 BigGAN 之上,通過對其表徵學習和生成能力進行廣泛評估,證明這些基於生成的模型在 ImageNet 數據集的無監督表徵學習和無條件圖像生成方面均實現了 SOTA 效果。
  • BYOL:輕鬆進行自監督學習
    自監督學習在深度學習中,經常遇到的問題是沒有足夠的標記數據,而手工標記數據耗費大量時間且人工成本高昂。基於此,自我監督學習成為深度學習的研究熱點,旨在從未標記樣本中進行學習,以緩解數據標註困難的問題。子監督學習的目標很簡單,即訓練一個模型使得相似的樣本具有相似的表示,然而具體實現卻困難重重。經過谷歌這樣的諸多先驅者若干年的研究,子監督學習如今已取得一系列的進步與發展。
  • 港中文開源視頻動作分析庫MMAction,目標檢測庫算法大更新
    機器之心報導參與:李亞洲、杜偉昨日,香港中文大學多媒體實驗室(MMLab)OpenMMLab 發布動作識別和檢測庫 MMAction,同時也對去年發布的目標檢測工具箱 mmdetection 進行了升級,提供了一大批新的算法實現。
  • DeepMind爆出無監督表示學習模型BigBiGAN,GAN之父點讚!
    GAN發明人Ian Goodfellow說:「很有趣,又回到了表示學習。我讀PhD期間,我和大多數合作者都對作為樣本生成的副產品的表示學習很感興趣,而不是樣本生成本身。」Goodfellow說:「當年我們在寫最初的GAN論文時,我的合著者@dwf(David Warde-Farley)試圖得到一些類似於BiGAN的東西,用於表示學習。5年後看到這一成果,我覺得太酷了。」
  • 全球中文學習平臺落戶青島,推動中文學習走向世界
    半島全媒體記者 孫雅琴 李曉哲12月3日,全球中文學習平臺落戶暨科大訊飛未來港啟幕儀式在西海岸新區舉行。全球中文學習平臺利用智能語音和人工智慧技術服務海內外中文學習者,旨在建成適應面廣、權威性強的全球中文學習第一門戶,自上線至今累計註冊用戶已超過190萬,應用覆蓋全球169個國家。接下來,青島市將連同科大訊飛共同建設全球中文學習平臺總部基地,打造「語言智能研發中心、學習資源中心、教研培訓中心、運營推廣中心」等四大中心,推動中文學習走向世界。
  • 為什麼說「無監督學習」才是深度學習的未來?
    監督學習:讓我握住你的手   在關於神經網絡的文章中,我們曾解釋了如何通過精心製作的「香腸印刷機」(sausage   press)將數據輸入給機器,這些印刷機能夠快速進行剖析、分析甚至自我精煉。
  • 圖靈獎得主辛頓談無監督學習問題根源:忽略數據間關聯捕捉
    他在報告中回顧了無監督神經網絡的發展歷史,結合表達學習模型的進化歷程,指出當前無監督學習方法所面臨問題的根源在於:過度關注數據的重構損失(Reconstructive Loss),忽略了對數據間關聯關係的捕捉。基於此,他提出了下一代神經網絡模型的構想,提出利用對比損失函數(Contrastive Loss)建模樣本間的局部關係、增強數據間表達的一致性的解決思路。
  • 人工智慧的下半場,一定少不了自監督學習
    考慮到無標籤數據(例如,免費的文本、網絡上所有的圖像)的數據量遠遠超過了數量有限的人為標記的數據集,如果不使用這些無標籤數據是一種極大的浪費。然而,無監督學習是很困難的,而且相較於監督式學習往往要低效得多。如果我們可以在不花費成本的情況下為無標籤數據打上標籤,並且以有監督的方式訓練無監督數據,那會怎麼樣呢?
  • 什麼是小樣本學習?這篇綜述文章用166篇參考文獻告訴你答案
    機器之心報導參與:魔王什麼是小樣本學習?它與弱監督學習等問題有何差異?其核心問題是什麼?來自港科大和第四範式的這篇綜述論文提供了解答。近期出現的小樣本學習(Few-Shot Learning,FSL)方法旨在解決該問題。FSL 利用先驗知識,能夠快速泛化至僅包含少量具備監督信息的樣本的新任務中。這篇論文對 FSL 方法進行了綜述。首先,該論文給出了 FSL 的正式定義,並釐清了它與相關機器學習問題(弱監督學習、不平衡學習、遷移學習和元學習)的關聯和差異。
  • 談談實現小樣本學習的兩條路徑
    小樣本學習是當下機器學習界的一個核心課題。大數據是當下深度學習的咽喉,面臨收集成本昂貴,甚至根本無法採集的弊端, 小樣本學習的實踐價值不言而喻。對於眾多產業來說, 真正能夠收集到大量樣本的是極少數情況,比如人臉識別,網際網路上的文本等。而更廣大的行業, 數據本身收集就很難,一些隱私倫理等障礙難以跨越,比收集數據更難的還有標註,大數據支撐的機器學習基本使用無望。
  • B站學強化學習?港中文周博磊變身up主,中文課程已上線
    最近,香港中文大學(CUHK)信息工程系助理教授周博磊就有了一個大膽的想法,他決定把自己每周的《強化學習》課程用中文在 B 站上進行直播。目前這門課程的第一課已經上線。機器之心經授權進行了整理。周博磊老師博士畢業於麻省理工學院,現任香港中文大學信息工程系助理教授,研究方向主要為機器感知和決策,重點是通過學習可解釋、結構化的表徵,使機器能夠在複雜的環境中感知、推理和行動。
  • 卡內基梅隆大學機器人學院博士後王晨:無監督在線學習在機器人場景...
    我們希望機器人在未知的環境中不斷探索新的事物,並對相似物體進行忽略,同時也希望機器人能夠在短時間內從不平衡的數據中進行學習。針對場景預測問題的研究,目前多為基於有監督的學習方法,其數據也需要有對應的標籤信息。但移動機器人的實際操作環境往往是未知的,數據的標籤信息很難獲取,因此基於有監督的學習方法並不適用於移動機器人的場景預測問題。