GAN不只會造假:捕獲數據中額外顯著特徵,提高表徵學習可解釋性,效果超越InfoGAN | IJCAI 2020

2021-03-02 量子位
楊淨 魚羊 發自 凹非寺
量子位 報導 | 公眾號 QbitAI

提起GAN,你或許會想起真假難辨的人臉生成。

但其實,GAN的能力並不只局限在圖像生成上。

用GAN做無監督表徵學習,就可以去做圖像分類了,就像那個半路出家的BigBiGAN,秒殺了一眾專注分類20年的AI選手。

現在,最新研究表明,在無監督環境中,GAN在學習可解釋性表徵方面也大有可為。

在實際情況中,有一些表徵可能是各種因素相互作用的結果,忽略這些相互作用可能會導致無法發現更多的特徵。

針對這一問題,AI獨角獸明略科技聯合兩所高校,提出了一個新的正則化器,對潛伏空間變量的相互作用施加結構約束,有效地探索數據中額外的顯著特徵。

目前已入選IJCAI 2020會議論文。

用GAN提取信息糾纏的顯著特徵

現有的無監督學習可解釋表徵的方法著重於「從數據中提取獨立不糾纏的顯著特徵」,但是這一方法忽略了顯著特徵的糾纏可能會提供有用信息。

而認識到這些信息糾纏,可以提高表徵的可解釋性,從而提取出更高質量和廣泛的顯著特徵。

也就是說,要實現更好的可解釋性,需要同時考慮非糾纏和信息糾纏的顯著特徵。

基於此,本文的核心方法是:用生成對抗網絡GAN,來學習非糾纏和信息糾纏的可解釋性表徵。

具體來說,就是提出了一個正則化器,對潛在變量的信息糾纏進行結構性約束,使用貝葉斯網絡對這些交互進行建模,做最大似然估計,並計算負似然分數以衡量分歧。

基於InfoGAN

先來了解一下這篇文章的背景。

這篇文章是以InfoGAN為基礎。它是當前最先進的用於「離散表徵學習」的生成對抗網絡,通過將GAN的對抗損失函數與一組觀測值和生成器輸出之間的相互信息進行正則化來進行離散表徵。

它於2016年首次提出,由加州大學伯克利分校、OpenAI聯合開發,能夠完全以無監督學習的方式來學習離散表徵。

InfoGAN學習的可解釋性表徵與現有的監督方法學習的表徵相比具有競爭力。互信息最大化鼓勵網絡將解耦變量與生成的輸出聯繫起來,迫使生成器給這些變量賦予意義。

由於互信息分量難以計算,InfoGAN通過最大化變量下限來近似計算。

但其正則化器並不能保證發現的顯著特徵之間的獨立性。實際情況中,這些特徵可能會相互影響,存在糾纏的情況。

於是,IJCAI的這篇論文用GAN學習可解釋性表徵問題,並同時考慮了離散變量和信息糾纏變量。

文章提出利用依賴結構,建模觀測值和數據顯著特徵之間的關係,並將這種結構作為GAN訓練的約束條件。

建模變量關係

為了在觀測變量和顯著特徵之間施加結構化關係,本文利用了判別器的特徵提取能力。

在GAN訓練中,判別器學習從訓練數據中提取顯著特徵,生成器根據判別器的輸出進行更新。

以上圖為例,綠色節點為輸入的觀測數據,紅色節點為判別器提取出來的潛碼(latent code),這些節點組成的圖就是依賴結構。

如果在觀測變量與顯著特徵之間施加一個結構化關係,那麼觀測變量將與訓練數據的顯著特徵聯繫在一起。

正如圖中提取出的三個特徵,其中兩個引出第三個。而連接紅綠兩點的線代表了觀測變量與潛碼之間的因果關係,讓觀察變量控制生成器輸出的顯著特徵。

然後,將一組觀測變量與判別器潛碼的「聯合分布」表示為貝葉斯網絡的形式。

但需要注意的是,通過估計每個局部條件概率的參數,而不是直接估計聯合分布參數,由此獲得對各個因果關係重要性的控制。

之所以選擇貝葉斯網絡,主要有如下原因,

1、與大多數獨立性檢驗相比,貝葉斯網絡結構能夠表示更精細的變量關係。

2、建立變量聯合分布模型所需的數據量比非結構化的方法要少。

3、捕捉顯著特徵之間的「因果關係」可以提高可解釋性,也就是說,一些變量如何糾纏可能會提供關於數據的額外信息,以及獨立因子所代表的內容。

將帶有結構損失的GAN正則化

之後,研究團隊設計來一個正則化器,利用如下等式中定義的似然函數所取的值,來指導GAN的訓練。

由於似然函數衡量的是給定模型的數據概率,所以當最大似然估計插入時,這個函數所取的值提供了一個天然的度量標準來衡量G對數據的擬合程度。

其中,G為給定的「聯合分布」和局部條件參數的最大似然估計。

與最大似然估計過程不同的是,本文是操縱分布本身來尋找一個給定的G所代表的最佳數據生成器。

損失函數為:

最終,利用所提出的損失函數,將GAN訓練的正則化為:

通過提出的結構損失正則化,GAN學習表示訓練數據分布,同時觀測變量和潛碼關係遵循指定的圖形結構,這樣就可以控制提取變量的相互作用。

換句話說,為了提取相互之間完全獨立的潛在變量,可以定義一個觀測變量和潛碼之間具有一對一連接的圖結構。

另一方面,為了提取相互引起的變量,還可以在潛在變量之間增加連接。

實驗結果:超越SOTA

所以,GAN學習可解釋表徵的效果如何?

研究人員在合成數據集和真實世界數據集上進行了實驗驗證。

實驗中,正則化是在和InfoGAN相同的判別器和生成器架構上實現的,同時採用網格搜索來調整參數。

MNIST數據集

在MNIST數據集中,實驗所採用的圖結構如下。

結果顯示,儘管InfoGAN很好地捕捉到了旋轉特徵,但如下圖中(b)和(d)所示,粗細特徵並沒有被充分區分開。

基本上,對於所有InfoGAN生成的數字,粗細度增加,數字也會旋轉。同時,一些數字的特徵會出現丟失,比如「5」。

本文提出的新方法則成功捕捉了這兩個不同的視覺特徵,並且不影響數字的數字特徵
       

另外,研究人員也測試了兩種方法的泛化能力。

模型仍然在 ci∈[-1,1] 的條件下訓練,但在 ci∈{-2,0,2} 的條件下生成圖像。

結果表明,新方法比InfoGAN的泛化能力更強,在輸出圖像變粗的同時,攜帶了更豐富的數字特徵。

另外,研究人員發現,在使用該正則器學習的表徵中,粗細度增加的同時,數字寬度也會增加。這暗示了寬度和粗細特徵之間存在信息糾纏。

進一步的實驗表明,基於本文提出的正則化器,可以引導GAN的訓練,以探索更多的顯著特徵。

利用信息糾纏,有可能拆分出其他顯著特徵相互作用的產物,也有可能發現糾纏在一起但顯著的新特徵。

研究人員如下圖所示調整了圖結構。這使得GAN趨向於發現2個會影響第3個特徵的潛伏特徵。

研究人員觀察到,c1和c2分別捕獲了寬度和粗細度的特徵,而c3則捕獲了寬度和粗細度的混合特徵。

這一結果說明,反饋給學習網絡G的圖結構,能夠引導GAN發現遵循期望的因果關係的變量

3D Faces Dataset

研究人員還在3D Faces數據集上進行了實驗。該數據集包含24萬個人臉模型,這些人臉模型的旋轉度、光線、形狀和高度會隨機變化。

結果同樣表明,InfoGAN並沒能提取第4個混合特徵。而本文提出的正則器能夠引導GAN捕獲旋轉、仰角、光線、寬度這全部4個特徵。

dSprites Dataset

之後,研究人員在dSprites數據集上對新方法進行了實驗。

這個數據集通常被用來給不同的表徵學習模型所實現的解構進行評分和比較。

結果顯示,該方法在得分上超過了SOTA方法。

最後總結一下:通過定性和定量比較,研究人員證明了本文提出的正則化器可以從數據中發現比SOTA更廣泛的顯著特徵,並且實現了比SOTA更強的泛化性能。

研究人員表示,下一步,他們將完成兩個目標:

· 設計一種學習最佳圖結構的算法來探索顯著特徵

· 進行非圖像數據集的實驗

作者介紹

這篇論文的作者,分別來自路易斯安那大學拉斐特分校、約翰內斯·克卜勒大學林茨分校,以及國內AI獨角獸明略科技。

第一作者是來自路易斯安那大學拉斐特分校的Ege Beyazit博士研究生。

他的研究方向是機器學習和數據挖掘。

此外,明略科技集團首席科學家、明略科學院院長,IEEE&AAAS fellow吳信東也參與了這項研究。

傳送門

論文地址:
https://www.ijcai.org/Proceedings/2020/273

本文系網易新聞•網易號特色內容激勵計劃籤約帳號【量子位】原創內容,未經帳號授權,禁止隨意轉載。

不了解任何隱私AI技術的情況下,開發者怎樣做到只改動兩三行代碼,就將現有AI代碼轉換為具備數據隱私保護功能的程序?

8月6號,中科院軟體研究所博士、矩陣元算法科學家--謝翔將直播解析,加小助手「qbitbot9」或者直接掃碼,即可進入直播交流群:

相關焦點

  • GAN不只會造假:捕獲數據中額外顯著特徵,提高表徵學習可解釋性...
    針對這一問題,AI獨角獸明略科技聯合兩所高校,提出了一個新的正則化器,對潛伏空間變量的相互作用施加結構約束,有效地探索數據中額外的顯著特徵。目前已入選IJCAI 2020會議論文。用GAN提取信息糾纏的顯著特徵現有的無監督學習可解釋表徵的方法著重於「從數據中提取獨立不糾纏的顯著特徵」,但是這一方法忽略了顯著特徵的糾纏可能會提供有用信息。而認識到這些信息糾纏,可以提高表徵的可解釋性,從而提取出更高質量和廣泛的顯著特徵。
  • 百度IJCAI2020之行的亮點總結,學術創新成果全球領先
    同時,針對傳統序列生成中面臨的曝光偏差問題,ERNIE-GEN 提出了 in-filling 填充式生成和噪音感知機制,以減少訓練過程和解碼生成的差異,提高了下遊應用任務的生成效果。除此之外,還通過一個雙向的注意力機制模擬醫生看病的流程,按序分別強化了病歷實體和文本當中的重要信息,提升了模型的準確率和可解釋性。該模型已被應用至中國超過百家基層醫療機構的信息系統中,以提升醫生看病的效率和降低漏診和誤診的概率。
  • NIPS2018深度學習(24)|亮點: 可複製特徵選擇;隨意InfoGAN;快速融合(論文及代碼)
    但是,大多數深度學習方法由於內在的複雜性,在很大程度上被視為可解釋性較差的黑箱工具。儘管最近已經有學者嘗試得到深度神經網絡(DNN)的可解釋性,但是現有方法容易受到噪聲影響並且缺乏魯棒性。因此,科學家們對發現的可重複性持謹慎態度,這通常與底層統計模型的可解釋性有關。
  • 注意力機制不能提高模型可解釋性?不,你這篇論文搞錯了
    那麼注意力模塊提供的中間表徵能否解釋模型預測的推理過程,進而幫助人們了解模型的決策過程呢?近期,很多研究人員對這個話題產生了濃厚的興趣。一篇題目為《Attention is not Explanation》(Jain and Wallace, 2019) 的論文表示,注意力機制並不能提高模型的可解釋性。
  • 優必選斬獲 IJCAI 2017最佳學生論文獎,13篇論文入選
    經實驗證明,TDGAN能夠按照描述生成高質量的目標圖像,進一步提升了圖像再渲染任務的性能,在兩個不同的數據集上,TDGAN的表現均超越了當前最優模型。論文4:Improving Stochastic Block Models by Incorporating Power-Law Degree Characteristic該文章將點度的冪律分布引入傳統的隨機塊模型,糾正了傳統模型不能處理常見網絡數據中的無標度特徵的缺點,提高了網絡社區檢測的精度。
  • IJCAI 2017,清華被收錄了哪些論文?
    結果表明,NEU可以對所有三種公開數據集的NRL方法有一致且顯著的改進,運行時間幾乎可以忽略不計。本文代碼可以從https://github.com/thunlp/NEU 獲得。基於Europarl和WMT語料庫的實驗表明,這種聯合訓練在多種語言中相比比獨立訓練效果都有顯著提高。
  • GAN快速入門資料推薦:17種變體的Keras開原始碼,附相關論文
    這項「造假神技」的創作範圍,已經從最初的手寫數字和幾百像素小渣圖,拓展到了壁紙級高清照片、明星臉,甚至藝術畫作。心癢難耐想趕快入門?通過自己動手、探索模型代碼來學習,當然是墜吼的~如果用簡單易上手的Keras框架,那就更贊了。
  • 揭秘深度學習成功的數學原因:從全局最優性到學習表徵不變性
    但是,寬的淺層網絡的容量可被深層網絡複製,且性能出現顯著提升。一個可能的解釋是深層架構相較於淺層架構可以更好地捕獲數據的不變性。比如在計算機視覺中,物體的類別不會隨著視角、照明等的變化而變化。對於為什麼深層網絡能夠捕獲此類不變性的數學分析仍然不得而知,但近期進展已經為深層網絡的特定子類別提供了一些解釋。特別是,散射網絡 [9] 是一種深層網絡,其卷積濾波器組由複雜的多解析度小波族群給出。
  • 深度學習的可解釋性!
    ,我們可以將深度學習的可解釋性方法分為:本質可解釋性和事後可解釋性、針對特定模型的可解釋性和模型無關可解釋性、局部可解釋性和全局可解釋性。 文中的方法可以基於對分類器局部可靠的可解釋表徵,來鑑別器模型的可解釋性。LIME 會對輸入樣本進行擾動,識別出對於預測結果影響最大的特徵(人類可以理解這些特徵)。
  • 谷歌NLP深度學習模型BERT特徵的可解釋性表現怎麼樣?
    本文對 BERT 特徵進行了介紹,並簡要分析了 BERT 特徵的可解釋性。自 2013 年 Mikolov 等人提出了 Word2Vec 以來,我們在詞嵌入方面已經有了很多發展。如今,幾乎所有機器學習業內人士都能熟背「國王減去男人加上女人等於女王」這類箴言。目前,這些可解釋的詞嵌入已成為許多基於深度學習的 NLP 系統的重要部分。
  • 7 Papers & Radios | 1.6萬億參數語言模型;IJCAI 2020獎項公布
    針對這個任務,華為雲的研究人員提出了一個多項選擇閱讀理解的框架,為句子中每個待消歧的實體分別生成一個問題,並將知識庫中的候選實體轉換成候選答案集,通過這樣一個設計,實體連結轉換為了一個閱讀理解的問題。為了進一步捕捉句子內待消歧實體間的主題一致性來提高連結的準確率,該工作採用了多輪閱讀理解的方式以序列去處理多個待消歧的實體,為句子內多個實體的消歧提供了更豐富的信息。
  • 表徵學習、圖神經網絡、可解釋的 AI , ML & 機器人七大研究進展...
    在此領域,另一個值得一提的成果是 Facebook AI 的 Hanabi 紙牌遊戲 AI,該系統中需要讓 AI 玩一個部分可觀察的協作式紙牌遊戲。二、表徵學習(萬能的符號 AI)也許最讓我興奮的進展,要數表徵學習領域。
  • KDD 2020最佳學生論文:基於匿名中間表徵的任務獨立、尊重隱私的數據眾包框架——TIPRDC
    用戶對原始數據中隱私信息的顧慮阻礙了眾包數據集的生成和使用,進而也影響了深度學習的應用和模型的開發。因此,設計一個可提供隱私保護的數據眾包框架是非常有必要且關鍵的。如何在數據共享的情況下,保護用戶個人隱私?一個傳統的解決方法是表示學習,訓練一個特徵提取器,用戶在本地通過學習好的特徵提取器從原始數據中提取任務所需的特徵,然後僅將提取出來的特徵傳輸給服務提供方或數據收集器。
  • 【博士論文】辨識性特徵學習及在細粒度分析中的應用
    https://www.ccf.org.cn/Focus/2020-12-03/717578.shtml辨識性特徵學習及在細粒度分析中的應用細粒度分析旨在對粗粒度的大類進行細粒度的子類劃分,如把鳥劃分為裏海燕鷗、北極燕鷗等子類別。其廣泛應用於智能農業、智能醫療等智能產業,具有重要的研究和應用價值。
  • 表徵學習、圖神經網絡、可解釋的 AI,ML & 機器人七大研究進展一覽
    在此領域,另一個值得一提的成果是 Facebook AI 的 Hanabi 紙牌遊戲 AI,該系統中需要讓 AI 玩一個部分可觀察的協作式紙牌遊戲。二、表徵學習(萬能的符號 AI)也許最讓我興奮的進展,要數表徵學習領域。我是老式經典規劃和所謂的符號 AI 的忠實擁護者,在該方法中,智能體通過理解對象或人此類的符號與真實世界建立聯繫。
  • 【可解釋學習】利用SHAP對分子活性預測機器學習模型進行解釋
    文章利用可解釋學習方法SHAP(SHapley Additive exPlanation)對基於複雜機器學習模型的分子活性預測模型進行解釋,嘗試打開「黑箱」。但是,機器學習模型的難以解釋的特性一直為人們所詬病,尤其是預測精度高的模型往往複雜度更高和規模更大,解釋性(Interpretability)更差。而對於QSAR模型,其中分子結構與活性的關係比起普通的圖像識別任務中標籤和圖片關係更難以理解,這增加了解釋模型的難度。這些複雜的機器學習模型的解釋有著重要的意義,可以提高模型與真實實驗符合程度從而提升模型性能,以及輔助分子作用機理的探索等。
  • CVPR 2018 | 騰訊AI Lab、MIT等提出可端到端學習視頻的運動表徵
    儘管端到端的特徵學習已經取得了重要的進展,但是人工設計的光流特徵仍然被廣泛用於各類視頻分析任務中。為了彌補這個不足,由來自騰訊 AI Lab、MIT、清華、史丹福大學的研究者完成併入選 CVPR 2018 Spotlight 論文的一項研究提出了一種能從數據中學習出類光流特徵並且能進行端到端訓練的神經網絡:TVNet。機器之心對本論文進行了摘要介紹,詳情請參閱原論文。
  • 深度學習+符號表徵=強大的多任務通用表徵,DeepMind新論文可能開啟...
    雷鋒網 AI 科技評論按:在深度神經網絡大行其道的現在,雖然大家總說要改善深度學習的可解釋性、任務專一性等問題,但是大多數研究論文在這些方面的努力仍然只像是隔靴搔癢。對於終生學習、持續學習來說,這種能力是非常重要的,而且也給人類帶來了很高的數據效率、遷移學習的能力、泛化到不同數據分布的能力等等,這些也都是當前的機器學習無法比擬的。我們似乎可以認定,決定了所有這些能力的最根本因素都是同一個,那就是決策系統學習構建多種任務通用的、可重複使用的表徵的能力。
  • 【一分鐘論文】IJCAI2019 | Self-attentive Biaffine Dependency Parsing
    這次分享的論文是:http://hlt.suda.edu.cn/~zhli/papers/liying_ijcai19_dp.pdf是由SUDA-HLT實驗室LA組的博士二年級學生李英發表在2019IJCAI上的一篇文章。
  • 模塊化、反事實推理、特徵分離,因果表示學習的最新研究都在講什麼?
    借鑑近年來產生式對抗性神經網絡等深度表徵學習方法,通過學習所有協變量的平衡表徵來調整共焦變量,使得在學習表徵的條件下,處理任務獨立於共焦變量。在機器學習中,數據越多越好。然而,在因果推理中,僅僅有更多的數據是不夠的。擁有更多的數據只會有助於獲得更精確的估計,但在因果推理的框架下,如果使用傳統機器學習技巧,不能確保這些因果估計是正確和無偏的。