可解釋機器學習技術之後置全局可解釋詳解

2020-12-05 我是天邊飄過一朵雲

後置全局可解釋

機器學習模型從大量訓練數據中自動地學習有用模式,並將學到的知識保存到模型結構和參數中。後置全局可解釋旨在為預先訓練的模型所獲得的知識提供全局解釋,並以直觀的方式對模型參數或學習得到的表示進行說明。我們將現有的模型分為傳統機器學習和深度學習兩類,這樣分類是因為我們能夠從每個類別中提取一些類似的解釋範例。

1. 傳統機器學習解釋

傳統的機器學習流水線通常依賴於特徵工程它將原始數據轉換為更好地表示預測任務的特徵。這些特徵通常是可解釋的,機器學習的作用是將特徵表示映射到輸出。我們考慮了一種簡單有效的解釋方法,稱為特徵重要性(feature importance),適用於大多數傳統機器學習模型,它表明機器學習模型在進行決策時每個特徵的貢獻程度。

(1)模型無關解釋:與模型無關的特徵重要性廣泛適用於各種機器學習模型。它將模型視為黑盒,並且不檢查內部模型參數。

典型的方法是「置換特徵重要性」,其核心思想是,通過對給定特徵值置換後模型預測精度的變化進行計算,可以確定給定特徵對模型整體性能的重要性。更具體地說,給定一個具有n個特徵的預先訓練模型和一個測試集,該模型在測試集上的平均預測得分為p,即基線精度。我們將測試集上的特徵值重新排序,並在修改後的數據集上計算模型的平均預測得分。

每個特徵迭代執行上述過程,最終可以分別得到n個特徵的n個預測得分。然後,我們根據n個特徵相對於基線精度p的得分下降程度來對其重要性進行排序。這種方法有幾個優點:首先,我們不需要對人工特徵進行歸一化;其次,該方法可以推廣到幾乎所有以人工特徵為輸入的機器學習模型;最後,該策略在應用中被證明是穩健和有效的。

(2)模型相關解釋:針對不同模型也存在特定的解釋方法。模型相關解釋方法通常通過檢查內部模型的結構和參數來得到模型的解釋。下面,我們將介紹針對兩類機器學習模型計算特徵的重要性。

廣義線性模型(GLM)由一系列模型組成,這些模型是輸入特徵和模型參數的線性組合,然後輸入到一些轉換函數(通常是非線性的)構成的模型,如線性回歸和邏輯回歸。GLM的權重直接反映了特徵的重要性,因此用戶可以通過檢查權重並將其可視化來了解模型的工作方式。然而,當不同的特徵沒有被適當地歸一化且測量尺度變化時,通過權重進行模型解釋不再可靠。此外,當特徵維數過大時該方法所給出解釋的可理解性會下降,這可能超出了人類的理解能力。

基於樹的集成模型,如梯度提升算法、隨機森林和XGBoost,通常人類是難以理解的。有幾種方法可以測量每個特徵的貢獻度。第一種方法是計算在樹分支中採用某特徵時的精度提升。如果不為某個特徵的分支添加額外分支,則可能存在一些錯誤分類的元素。在增加額外分支之後,會存在兩個分支,使得每個分支都更準確。第二種方法測量特徵覆蓋率,即計算與一個特徵相關的樣本的相對數量。第三種方法是計算一個特徵用於數據分割的次數。

2. DNN表徵解釋

DNNs不僅要研究從表徵到輸出的映射,而且還要從原始數據中進行表徵學習。學習到的深層表徵通常是人類無法解釋的,因此對DNNs模型的解釋主要集中在理解DNNs中間層神經元捕獲的表徵。在這裡,我們介紹兩類主要的DNN模型,即CNN和RNN的表徵解釋方法。

(1)CNN表徵解釋:針對CNN不同層上神秘表徵的理解和解釋吸引了越來越多的關注。在CNN表徵解釋的不同策略中,最為有效和廣泛使用的策略是針對特定層上的神經元確定首選輸人。該策略通常是通過激活最大化(AM)框架進行描述。從隨機初始化圖像開始,我們對圖像進行優化,以最大化激活神經元。通過迭代優化,利用神經元響應值相對於圖像的導數對圖像做出調整。最後,對生成的圖像進行可視化,就可以知道單個神經元在其感受野中探索的是什麼。事實上,我們可以對任意神經元進行此類操作,從第一層神經元一直到最後一層輸出神經元,以此來理解各層上的編碼表示。

雖然框架很簡單,但實際運用中卻面臨著一些挑戰,其中最大的挑戰是會產生奇怪的偽影。優化過程中可能會產生包含噪聲和高頻模式的不真實圖像。由於圖像搜索空間大,如果沒有進行合適的正則化,即使有滿足條件的圖像激活神經元,圖像也無法辨識。為了解決這一問題,需要利用自然圖像先驗知識對優化過程進行約束,以生成和自然圖像類似的合成圖像。一些研究者啟發式地提出了一些人為先驗,包括總變差範數、α範數和高斯模糊。此外,可以通過生成模型(如GAN或VAE)生成更為強大的自然圖像先驗,此類生成模型可將隱空間中的編碼映射到圖像空間。這些方法不是直接對圖像進行優化,而是對隱空間編碼進行優化,以找到能夠激活指定神經元的圖像。實驗結果表明,由生成模型產生的先驗信息顯著改善了可視化效果。

模型可視化的結果揭示了CNN表徵的一些有趣的性質。首先,神經網絡在多個抽象層次上進行表徵學習,從第一層到最後一層,逐漸從一般特徵學到了任務相關特徵。其次,神經元可以對存在語義關聯的不同圖像做出響應,展示了神經元具有多面性。注意,這種現象並不局限於高層神經元,所有層級的神經元都具有多面性,只是高層神經元比低層神經元更具多面性,即高層神經元對某類輸入的變化具有更強的不變性。第三,CNN可以學到對象的分布式編碼,可以使用基於部件的表示來描述對象,這些部件可以跨類別共享。

(2)RNN表徵解釋:在對CNN解釋進行了大量研究後,揭示RNN表徵(包括GRUs和LSTMS)所編碼的抽象知識近年來也引起了人們濃厚的興趣。語言模型常被用於對RNN表徵學習的分析,語言模型的目標是根據前一個標識來預測下一個標識。研究表明RNN確實能學習到一些有用的表徵。

首先,一些研究通過對能夠最大化激活某個單元響應的實際輸入標識進行分析,檢測了RNN最後的隱藏層的表徵,並對該層上不同單元的功能進行研究。研究表明,一些RNN表徵單元能夠捕獲複雜的語言特性,如語法、語義和長期依賴關係。另外一項研究通過字符級語言模型對RNN的響應模式進行分析。該研究發現,雖然大多數神經單元很難找到特定的含義,但在RNN隱層表徵中確實存在某些維度,能夠關注於某些特定的語言結構,如引號、括號及文本中的行長度。在另外一項研究中,採用詞級語言模型對RNN各個隱層單元所編碼的語言特徵進行分析。可視化結果表明,一些神經元主要對特定的語義類別產生響應,而另外一些神經單元則會對特定的語法類型或依賴關係產生響應。值得一提的是,一些隱層神經單元可以將響應值傳遞到後續的時間步,這就解釋了為什麼RNN可以學習長期依賴關係和複雜的語義特徵。

其次,通過對不同隱藏層學習到的表徵進行比對,發現RNN可以學習到對象的層次化表徵。該研究表明,RNN表徵與CNN表徵之間存在相似之處。例如,採用多層LSTM構建的雙向語言模型,分析此模型不同層上的表徵可知,模型的下層捕獲了上下文無關的語義信息,較高層次的LSTM表徵則可對語義上下文進行編碼。深度上下文表徵層可以通過上下文進行詞義消歧,因此可以用於需要考慮上下文的詞義理解任務中。

相關焦點

  • 可解釋的機器學習
    可解釋的機器學習理解(interpret)表示用可被認知(understandable)的說法去解釋(explain)或呈現(present)。在機器學習的場景中,可解釋性(interpretability)就表示模型能夠使用人類可認知的說法進行解釋和呈現。[Finale Doshi-Velez]
  • 「可解釋學習」利用SHAP對分子活性預測機器學習模型進行解釋
    文章利用可解釋學習方法SHAP(SHapley Additive exPlanation)對基於複雜機器學習模型的分子活性預測模型進行解釋,嘗試打開「黑箱」。但是,機器學習模型的難以解釋的特性一直為人們所詬病,尤其是預測精度高的模型往往複雜度更高和規模更大,解釋性(Interpretability)更差。而對於QSAR模型,其中分子結構與活性的關係比起普通的圖像識別任務中標籤和圖片關係更難以理解,這增加了解釋模型的難度。這些複雜的機器學習模型的解釋有著重要的意義,可以提高模型與真實實驗符合程度從而提升模型性能,以及輔助分子作用機理的探索等。
  • 一文讀懂可解釋機器學習簡史,讓你的模型再也不是「Black Box」
    儘管這個領域才剛剛起步,但是它在回歸建模和基於規則的機器學習方面的相關工作卻始於20世紀60年代。最近,arXiv上的一篇論文簡要介紹了解釋機器學習(IML)領域的歷史,給出了最先進的可解釋方法的概述,並討論了遇到的挑戰。 當機器學習模型用在產品、決策或者研究過程中的時候,「可解釋性」通常是一個決定因素。
  • TensorFlow Lattice:靈活、可控、可解釋的機器學習
    字幕組雙語原文:TensorFlow Lattice:靈活、可控、可解釋的機器學習英語原文:TensorFlow Lattice: Flexible, controlled and interpretable ML翻譯:雷鋒字幕組(ZeroJ)大多數的機器學習實踐者都曾遇到過訓練數據和實際運行時用以評估模型的樣本差別很大的情況。
  • 機器學習:向量的直觀解釋
    在機器學習中我們經常提到向量,究竟什麼是向量呢?在本文中,我們將首先研究向量的定義,然後對其數學運算進行直觀的解釋。定義向量我們在X、Y數字網格上繪製一個點(1,2),其中X代表水平方向,Y代表垂直方向。我們已經很好地定義了一個向量。
  • 深度學習的可解釋性研究(一):讓模型「說人話」
    北航智慧城市興趣組 BIGSCITY是隸屬於北京航空航天大學計算機學院的一個學術研究小組,小組致力於研究機器學習與數據挖掘在城市科學、社會科學等領域的交叉應用技術。AI 科技評論獲得 BIGSCity 授權轉載,敬請期待更多後續內容。
  • 圖神經網絡GNN的可解釋性問題與解釋方法最新進展
    然而,隨著時間的推移,它將會變得越來越流行,目前幾乎還沒有什麼有趣的可解釋性方法可用於 GNN 模型。在本文中,我們將研究新的圖解釋方法,並了解如何將它們應用於 GNN 模型。2015 年,Duvenaud 等人 [3] 發表了關於 GNN 解釋技術的開創性論文。該論文主要貢獻是提出了一種新的 神經圖指紋模型,同時也為這種結構創造了一種解釋方法。該模型背後的主要思想是直接從圖數據本身創建可區分的指紋。為實現這一點,作者不得不重新定義圖的池化和平滑操作。這些操作然後被用來創建一個單層。
  • 人工智慧瓶頸之神經網絡的可解釋探討
    然而隨著深度學習技術在多個領域的大量應用,其背後隱藏的安全問題也隨之而來。特別是在醫學診斷、網絡安全、自動駕駛等對安全性有較高要求的領域,深度神經網絡所隱藏的安全風險限制了其自身在更多領域的應用和推廣,引起了政府、學術界及工業界的關注。基於深度神經網絡的人工智慧系統主要面臨結果不可驗證和過程不可審查兩大安全問題。
  • 一文探討可解釋深度學習技術在醫療圖像診斷中的應用
    內在解釋性是指模型具有根據人類可觀察到的決策邊界或特徵來解釋其決策的能力。一些相對簡單的模型,如回歸模型、決策樹和支持向量機等,都是可以觀察到決策邊界的,因此是具備內在解釋性的。最近的關於內在解釋性的研究使用不同的方法使深度學習模型本質上可解釋,例如混合使用機器學習分類器和在分割空間中的可視化特徵等。
  • 五分鐘向長輩解釋機器學習,這樣最通俗!
    全文共2746字,預計學習時長5分鐘什麼是機器學習呢?如果是對此一竅不通的長輩來問你這個問題,你該如何回答?本文將用最簡單的詞彙來嘗試解釋這一話題,包括每個人都應該知道的最主要也是最重要的部分。人類大腦神經元在知道了計算機神經網絡是受到人類大腦結構啟發設計的之後,你可能想知道這些神經元是怎麼連接在一起的。每個神經元都會接收輸入,然後產生輸出。輸入節點(輸入層)為神經網絡提供來自外界的信息,就好比是你的眼睛看到並收集信息後傳遞給大腦。
  • 機器學習能模擬解釋?
    洛桑聯邦理工學院(Ecole Polytechnique Federale de Lausanne)、哥廷根大學(University of Gottingen)和維也納大學(University of Vienna)的研究人員進行了一項合作研究,將數據驅動的機器學習技術和量子力學結合起來,為這些問題提供了物理上的洞見。
  • 高解析度超聲波光譜技術可解釋乳品「本質」
    高解析度超聲波光譜技術可解釋乳品「本質」 儀器信息網 2004/11/11 17:52:45 點擊 257 次
  • 訓練可解釋、可壓縮、高準確率的LSTM
    為此,微軟亞洲研究院機器學習組提出了一種新的LSTM訓練方法,讓模型的門接近「二值化」——0或1,可以更準確地去除或者增加信息,進而提高模型的準確性、壓縮比以及可解釋性。同時也有一些前人的工作指出:LSTM的絕大多數維度並沒有明顯的可解釋信息。那麼如何能夠學到一個更好的LSTM呢?這個問題引領我們去挖掘門結構更大的價值:既然門是一個開關的概念,那麼有沒有可能學習出一個接近「二值化」(binary-valued)的LSTM呢?一個接近「二值化」的門(binary-valued gate)有以下幾點好處:   1.
  • 看機器學習如何解釋混沌系統
    那麼,有了機器學習之後呢?  半個世紀前,混沌理論的先驅們發現由於存在「蝴蝶效應」,長期預測是不可能的。對於複雜系統(如天氣,經濟等等),即使是最小的擾動也能觸發一連串事件,導致極為不同的後果。  我們生活在不確定的陰影之下,無法確定這些系統的狀態以預測它們將如何發展。
  • 結合神經網絡,提升ImageNet分類準確率且可解釋
    BAIR公布神經支持決策樹新研究,兼顧準確率與可解釋性。隨著深度學習在金融、醫療等領域的不斷落地,模型的可解釋性成了一個非常大的痛點,因為這些領域需要的是預測準確而且可以解釋其行為的模型。然而,深度神經網絡缺乏可解釋性也是出了名的,這就帶來了一種矛盾。
  • |可解釋膠囊網絡深度學習框架從單細胞RNA測序...
    文中提出了一個使用膠囊網絡(稱為scCapsNet)的可解釋的深度學習體系結構。膠囊結構(代表一組特定對象屬性的神經元向量)捕捉層次關係。通過利用競爭性單細胞類型識別,scCapsNet模型能夠進行特徵選擇以識別編碼不同亞細胞類型的基因組。將RNA表達特徵有效地整合到scCapsNet的參數矩陣中,實現了亞細胞類型識別。
  • 表徵學習、圖神經網絡、可解釋的 AI,ML & 機器人七大研究進展一覽
    對於機器人技術和機器學習的交叉領域的研究人員,我發現大多數人的觀點是:只有技術變得足夠強大時,人們才可能相信它們能為現實中硬體的決策提供依據。五、圖神經網絡我對圖神經網絡的忠實擁護者。》等論文都非常引人深思,相關論文可以參考下文地址:論文地址:https://arxiv.org/abs/1803.03635六、可解釋的 AI儘管我對深度學習和表徵學習方法的前景感到十分興奮,但這些技術所產生的系統通常是難以理解的。由於這些系統逐漸面向人類,其難以理解的特點將成為一個問題。
  • NeurIPS 2019:兩種視角帶你了解網絡可解釋性的研究和進展
    研究者們的重點都在如何提升網絡性能上,很少有人能說清楚深度神經網絡為何能夠得到較好的泛化能力,有的研究者習慣從原理上來說明這個問題,有的研究者則會從中間結果來解釋,當然這些觀點都各有千秋。在 NeurIPS 2019 上,有些學者在網絡的可解釋性上發表了自己的研究。以下就兩篇論文從兩種不同的角度來描述研究者們對於泛化能力的理解和解釋。
  • 機器學習之父Michael I. Jordan 親臨2018全球機器學習技術大會
    在即將到來的2018全球機器學習技術大會上,Michael I. Jordan將為大家帶來《機器學習前沿發展》的主題演講,深入闡述機器學習領域最新的前沿發展情況及其領導的機器學習團隊的最新研究成果,包括如何在訓練生成式對抗網絡GAN的過程中找到好的鞍點、如何在非凸優化中避免鞍點、可解釋的機器學習、可證明的最優強化學習、多智能體決策、分布式強化學習平臺等熱點前沿話題。相信Michael I.
  • 機器學習之詳解Logistic回歸
    回歸分析是被用來研究一個被解釋變量(Explained Variable)與一個或多個解釋變量(Explanatory Variable)之間關係的統計技術。被解釋變量有時也被稱為因變量(Dependent Variable),與之相對應地,解釋變量也被稱為自變量(Independent Variable)。