遷移學習效果優化不再是難題,楊強教授團隊帶來自動找到最佳算法的...

2020-12-13 雷鋒網

雷鋒網(公眾號:雷鋒網) AI 科技評論按:近日,香港科技大學楊強教授團隊發表了一篇關於遷移學習的論文。在論文中,他們提出了一種新穎的遷移學習範式 Learning to Transfer (L2T),用系統化、自動化的方法解決目前遷移學習中可選算法多、但實際應用中難以找到最佳算法的問題。

雷鋒網 AI 科技評論對論文中方法的重點思想介紹如下,涉及具體公式及推導過程請參見原論文。

遷移學習

遷移學習(Transfer Learning)的想法來自於人類在不同的任務間轉換知識的能力,在機器學習領域使用遷移學習的目的是為了運用現有領域內的知識,提高模型在新的領域內的表現,又或者訓練一個用於新的領域的模型時減少所需要的標記數據數目。在所能獲得的標記數據有限的情況下,遷移學習有著重要的意義。

遷移學習研究的關鍵問題是何時遷移如何遷移遷移什麼。如果從現有領域進行遷移之後能夠有助於新領域的表現,那麼就適合遷移(「何時遷移」);要遷移的對象是兩個領域內共享的那部分知識(「遷移什麼」);算法發揮的作用就是找到這部分知識,然後進行遷移(「如何遷移」)。不同的算法很可能會找到可遷移的知識裡不同的部分,就會導致不同的遷移學習效果,在遷移學習完成後對表現進行測量就能夠看到這些差別。

要達到源領域和目標領域之間的最優遷移效果,需要研究者們對基於實體、參數、特徵的數百種遷移學習算法逐一嘗試。由於這樣暴力嘗試的代價過於高,實際中研究者往往只能在有限的嘗試中找到一個次優的算法,而這樣的做法則需要對點對點遷移有相當的經驗,思考方法也不系統。

Learning to Transfer

楊強教授團隊認為,逐一嘗試現有的不同遷移學習算法不應成為唯一一種確定要遷移哪些知識並提高遷移學習效果的方法。所以他們在論文中提出了一種新的遷移學習範式,名為 Learning to Transfer(L2T)。受到人類能夠根據隨著經驗增加越來越輕鬆地判斷如何轉移知識的啟發,L2T 的核心思想就是利用以往的遷移學習經驗自動決定在源領域和目標領域之間如何遷移以及遷移什麼,從而提高遷移學習的效果;其中對以往經驗的利用也是在所有遷移學習算法中首次出現。

為了達到這樣的目標,L2T 的過程分為兩個階段。

第一個階段是「積累經驗」。首先,L2T 智能體進行若干次遷移學習,並對這些遷移學習過程做記錄。每一次學習的記錄分成三部分:一對源領域 S 和目標領域 T,參數化為共享潛特徵因子(latent feature factor)格式的被遷移知識 W,以及表現提升比 l(論文中定義這個值為有無遷移學習的狀況下表現之比,越高說明遷移學習效果越好)。記錄格式類似這樣(S,T,W,l)。

接下來 L2T 智能體就需要根據這些遷移經驗,學習如何遷移。這個過程是學習一個反射函數=(S,T,W),函數值就是剛才的表現提升比 。這個反射函數的目標就是通過 S、T、W 預計表現提升比 l ,學到的反射函數內部就隱含了元認知遷移學習的技能,即遷移什麼、如何遷移才能夠讓給定的源領域和目標領域之間的表現提升比最高。源領域和目標領域的特性也參與構成了 f  的一部分。

第二階段就是真正進行遷移。對於之後再提供的新的一對源領域和目標領域和已經學到的 f,L2T 智能體就可以通過求 最大值的方式找到最優的遷移知識,以參數的形式體現在W中。遷移學習算法按照參數W執行,就可以達到設定的遷移學習效果。

論文中 L2T 範式的說明配圖。圖中黑字的(1)、(2)、(3)就是記錄若干次學習、學習反射函數 f、通過 f 對新的源領域和目標領域的遷移方式求最優解

L2T 這種新穎的遷移學習範式為有效地遷移學習開啟了新的大門。通過對以往的遷移學習經驗的利用,L2T 能夠以系統化、自動化的方式在領域間發現更多的可遷移知識,而無需研究者自己具備豐富的經驗。

反射函數 f 

顯然,在這樣的範式下,反射函數 具體形式的構造是重中之重。目前作者們選定的 L2T 研究領域為針對一階潛特徵因子的遷移學習,即源領域和目標領域的特徵空間相同,而標籤不同。在構造 f 的過程中,作者們討論並解決了以下幾個問題。

把「學習什麼」參數化:對所有算法中的要遷移的內容做統一的參數化。這樣的潛特徵因子的遷移學習的目標就是學到不同領域間的與領域無關的特徵因子。比如從識別狗遷移到識別貓,其中眼睛、嘴、尾巴等共有的特徵就是不同領域間可以共享的特徵因子。

從經驗學習:作者們認為有兩個因素對表現提升比 l 有很大影響,在構建 f 的時候這兩個方面都要考慮到。因素一是源領域和目標領域在共享潛空間的區別。更小的區別就是更大的重疊空間,這意味著有更多的潛特徵因子可供遷移,提升比例也會更高。

對於源領域和目標領域在共享潛空間的區別,作者們首先用了最大平均差異(maximum mean discrepancy,MMD)來衡量。不過MMD的問題是只能衡量兩個空間的平均值之間的距離,而不足以衡量兩個空間的區別大小(如下圖);所以作者們考慮到這一點,也加入了空間分布的集中性的因素在公式中。

如圖,藍色線段為兩個空間平均值之間的距離。此圖說明了這個距離不足以完全衡量空間區別的大小

因素二是目標領域在潛空間的鑑別能力。目標領域在潛空間的鑑別能力越強,表現的提升也會越明顯。由於遷移學習的主要應用場景就是在有標籤數據不足時,所以作者們也就直接選擇基於無標籤數據做計算。無標籤數據的鑑別性可以從兩個方面評價:類似的實體在嵌入潛空間後也應該距離相近;差別很大的實體在嵌入潛空間後也應該距離較遠。從而提出了鑑別性的評價公式。

這樣,明確了 f  的具體形式後,就可以先學習以往的若干次遷移學習經驗,然後根據學到的 f 求遷移方式(參數W)的最優解。(相關公式參見論文原文)

實驗結果

由於不同領域內的任務難度不同,不好直接對比,論文中選擇了繼續使用前文定義過的表現提升比 l(有無遷移學習的狀況下表現之比,越高說明遷移學習效果越好),讓 L2T 與其它許多常用的遷移學習算法進行了對比。

從上圖可以看到,當目標領域內的有標籤樣本數目很少的時候,L2T 的表現遙遙領先,這說明 L2T 最為有效地遷移了兩個領域內共有的知識,而且在樣本很多時依然保持著優勢。

為了驗證「從經驗學習」的有效性,作者們還設計了另一個實驗。首先設定 L2T 要學習的遷移經驗數目是1000條,然後用不同的以往算法生成這1000條經驗供它學習,看看 L2T 的表現受經驗影響情況如何。結果如下表。(表中內容有刪減,原表格參見論文原文)

可以看到,隨著使用的算法增多,L2T 的學習效果也越好(學到了更多情況,學到的反射函數 f 更強,遷移學習得更有效)。而且即便只用一種現有算法為 L2T 生成經驗(ITL 與 DIP 兩行)時,L2T 的學習效果也有大幅度提高(3個標記樣本時,ITL 和 DIP 本身的表現分別為 1.0188 和 1.0875)。這有力地說明了「從經驗學習」的巨大作用。

論文地址:https://arxiv.org/abs/1708.05629 

雷鋒網 AI 科技評論編譯


相關文章:

華人第一位!楊強教授當選 IJCAI 理事會主席

SIGKDD 三大核心獎項出爐,裴健、楊強分獲創新獎及傑出服務獎

香港科技大學楊強教授:深度學習如何才能更靠譜?

香港科技大學楊強教授:AI學術的前沿工作,也要從工業界獲得靈感|CCF-GAIR 2017

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 第四範式首席科學家楊強:AlphaGo的弱點及遷移學習的應對
    楊強,第四範式聯合創始人、首席科學家。楊強教授在人工智慧研究領域深耕三十年,是國際公認的人工智慧全球頂級學者,ACM 傑出科學家,兩屆「KDD Cup」冠軍。現任香港科技大學計算機與工程系主任,是首位美國人工智慧協會(AAAI)華人院士,AAAI 執行委員會唯一的華人委員,國際頂級學術會議 KDD、IJCAI 等大會主席,IEEE 大數據期刊等國際頂級學術期刊主編。
  • 專訪香港科技大學教授楊強:國內的人工智慧研究不能太跟風
    但同時,除了紮根科研界,楊強教授還是人工智慧領域深入商業應用領域的頂級專家之一。目前,楊強教授擔任人工智慧技術與服務提供商第四範式的首席科學家,帶領這家被廣泛看好的人工智慧公司不斷取得科技突破,近期第四範式在烏鎮世界網際網路大會上發布了可供大部分網際網路公司使用的人工智慧公有雲產品,也是基於楊強教授與團隊「AI for everyone」的共同價值觀。日前,極客公園對楊強教授進行了專訪。
  • NeurIPS 2019 | 微眾銀行首席人工智慧官楊強:聯邦學習針對推薦...
    在微眾銀行聯合谷歌、卡內基梅隆大學舉辦的聯邦學習國際研討會上,楊強教授以《Federated Recommendation》為主題,分享了微眾銀行首創的聯邦推薦技術的最新研究成果和應用落地。聯邦推薦:微眾銀行首次將聯邦學習應用於推薦場景推薦系統中算法的目標是挖掘用戶和內容、商品之間的聯繫,根據問題的特點,微眾銀行將聯邦推薦算法總結成三類,如下圖所示,包括橫向聯邦推薦算法(也可稱為基於商品的聯邦推薦)、縱向聯邦推薦算法(也可稱為基於用戶的聯邦推薦)和遷移聯邦推薦。
  • 聯邦學習最新醫療場景發布:楊強團隊與劉琦團隊合作打破藥物數據...
    來自同濟大學生物信息系的劉琦教授課題組與微眾銀行楊強教授AI團隊合作,通過聯邦學習來進行本地藥物隱私數據的保障,以及模擬多個製藥機構(用戶)之間的藥物協同開發,助力製藥機構在保障自身藥物數據隱私安全的前提下進行協同藥物發現。
  • 第四範式首席科學家楊強教授:人工智慧的下一個技術風口與商業風口
    作為華人界首個國際人工智慧協會AAAI Fellow、至今為止唯一的AAAI 華人執委,以及IEEE Fellow、AAAS Fellow、IAPR Fellow,楊強教授在專注學術研究的同時,也更關注如何讓人工智慧技術落地轉化為生產力的問題。
  • AIR 008丨香港科技大學教授楊強:人工智慧成功的幾個必要條件
    此外,另外一種技術正在開始應用:強化學習。強化學習不僅僅能夠學習人的行為,還能夠更好的使用延遲反饋功能。而之後人們能否發明一種新的學習方法,能把大數據的模型在用於小數據身上,於是楊強提到了遷移學習。遷移學習是把深度學習和強化學習疊加在一起。
  • 獨家 | 一文讀懂遷移學習(附學習工具包)
    前言遷移學習(Transfer Learning,TL)對於人類來說,就是掌握舉一反三的學習能力。比如我們學會騎自行車後,學騎摩託車就很簡單了;在學會打羽毛球之後,再學打網球也就沒那麼難了。對於計算機而言,所謂遷移學習,就是能讓現有的模型算法稍加調整即可應用於一個新的領域和功能的一項技術。
  • 楊強:應對對抗攻擊、結合AutoML,是聯邦學習接下來的研究重點 |...
    8月9日下午,在「聯邦學習與大數據隱私」專場上,微眾銀行首席人工智慧官、香港科技大學楊強教授進行了題為「聯邦學習下的數據價值與模型安全」的演講。演講中,楊強教授介紹了聯邦學習的關鍵技術以及應用案例,並進一步介紹了最新開展的聯邦學習和遷移學習的結合研究以及接下來的重點研究方向。
  • 聯邦學習 OR 遷移學習?No,我們需要聯邦遷移學習
    1.2、遷移學習(Transfer Learning)遷移學習是機器學習的一個重要分支,其主要目的是將已經學習過的知識遷移應用於新的問題中。關於遷移學習最權威的綜述性文章是香港科技大學楊強教授團隊的《A survey on transfer learning》[7]。我們在這裡參考楊強教授的文章對一些遷移學習的基本概念進行闡述。
  • 楊強申省梅等AI大咖共談「跨域學習」,搞定小數據才是王道 | CNCC 2020
    對此,楊強教授將問題拆分為二:如何解決大數據遷移到小數據的問題。如何解決數據分散的問題。並提出了解決方案——遷移學習和聯邦學習。△ 微眾銀行首席人工智慧官  楊強遷移學習是比較傳統的方法,因此,楊強教授主要針對聯邦學習做了闡述。
  • 香港科技大學楊強教授專注研究的這項新興技術,可能能造就最初的...
    這個概念目前在機器學習中其實比較少見,但其實它的潛力可以相當巨大。楊強教授在剛剛結束的CCF-GAIR上的演講中曾提到一個願景——利用遷移學習,即使是自身沒有條件獲得大量訓練數據的小公司也可以按照自己的需要應用大公司訓練出來的模型,從而普及AI的應用。
  • 香港科技大學教授楊強談「應該做什麼樣的人工智慧研究」
    6月21日,香港科技大學教授、微眾銀行CAIO(首席人工智慧官)楊強在2020北京智源大會上分享他對人工智慧科研選題的理解。楊強提到,作為一個有責任心、有志向的學生或學者,應該在創新上努力,而創新的一部分就是選題。「大家可能更多地關注文章數量,沒有在選題上更多地關注。」
  • 在知識爆炸的時代,「知識遷移學習方法」你get了嗎?
    ●●●當今時代是知識爆炸的時代,人們通過不同渠道能夠獲得各種類型的知識,如何合理利用這些知識實現新的目標和任務,即實現知識遷移,是人類一項基本能力。然而這項能力對於機器而言卻並不容易,「如何遷移"」何時遷移" 以及「遷移什麼" 是知識遷移應用於人工智慧領域面臨的三大難題。
  • 「羊吃草」論數據隱私保護難題?世界第一本聯邦學習專著問世
    這就是世界上第一本「聯邦學習」專著——《Federated Learning》(英文版)/《聯邦學習》(中文版),由微眾銀行首席人工智慧官楊強教授及人工智慧部劉洋、程勇、康焱、陳天健、於涵等多位人工智慧領域頂級專家歷時兩年,共同編撰而成。
  • 微眾銀行首席AI官楊強:萬字圖文詳談聯邦學習最前沿
    我們就發展出了toB的聯邦學習。谷歌的相關研究團隊在一直是在安卓系統團隊下面,所以他們比較關心橫向聯邦學習。現在美國和歐洲是橫向比較多,在我們國內是縱向比較多。聯邦學習現在是雙頭發展。遷移學習:樣本、特徵無一重疊剛才講到要麼樣本有重疊,要麼特徵有重疊,但是如果兩者都沒有重疊,這個時候就要請出遷移學習。遷移學習的思路是,假設兩個數據集的樣本和特徵幾乎都沒有交集,我可以在他們的子空間裡面找到有重疊的地方。怎麼找?這就是通過同態加密和剛才所說的分布式交互機制。找到以後,就可以在子空間裡面進行橫向聯邦或者縱向聯邦了。
  • 算法模型自動超參數優化方法
    貝葉斯優化可以這樣進行。選擇幾個數據點x,使在當前先驗分布上運行的獲取函數a(x)最大化。評估目標成本函數c(x)中的數據點x,得到結果,y。用新的數據更新高斯過程先驗分布,以產生一個後驗(它將成為下一步的先驗)。解釋當前的高斯過程分布(這是非常便宜的),以找到全局最小值。貝葉斯優化就是把概率論的思想放在代入優化的思想後面。綜上所述:代用優化利用代用函數或近似函數通過抽樣來估計目標函數。
  • 楊強領銜 6 位專家「拆解」聯邦學習,完整議程公布!
    在 2020年8月7日-9日由中國計算機學會(CCF)主辦,香港中文大學(深圳)、雷鋒網聯合承辦的第五屆CCF-GAIR全球人工智慧與機器人峰會上,「聯邦學習與大數據隱私」專場將能對這些問題一一做出解答。那本次專場邀請的嘉賓陣容如何?他們將帶來怎樣的分享?
  • 優化 | 優化理論能給深度學習帶來怎樣的革命?
    半自動標註的優化算法深度學習時代,對於高精度標註數據的需求日益劇增,公司最終的核心競爭力不在於CNN模型的優劣。 而是Ground-truth圖片的精度和數量。以下圖我目前的主要工作語義分割舉例而目前這個時代,深度學習,或者說超大規模的機器學習帶來了一類新的問題情境,使得傳統的非線性/數值優化算法無法直接被使用。這裡我們考慮如下三個問題:機器學習中的優化問題是如何湧現出來的?哪些因素導致它們具有挑戰性?目前來說,有哪些優化算法在大規模的機器學習應用中算是比較成功的?
  • 阿里雲開源的業界首個面向NLP場景深度遷移學習框架EasyTransfer
    其次,用戶應用場景的多樣性很高,單一的遷移學習算法無法適用,如何提供一個完備的遷移學習工具來提升下遊場景的效果。第三,從算法開發到業務落地通常需要很長的鏈路,如何提供一個簡單易用的從模型訓練到部署的一站式服務。面對這三大挑戰,PAI團隊推出了EasyTransfer,一個簡單易用且高性能的遷移學習框架。
  • 遷移學習的基礎研究問題及適用場景 | 文末贈書
    它不僅建立了較好的理論基礎和有效的算法,還成功地得到商業應用,成為推動產業和社會發展的重要力量,使 AI 進入了以數據驅動為主導的第二代 AI 發展時代。為了邁向真正的 AI,我們需要第三代 AI,而遷移學習正在向這一道路邁進。本文節選自《遷移學習》一書,由楊強教授與其學生在多年研究的基礎上撰寫的,它包含了遷移學習的基礎、方法、技術和應用。