谷歌大腦提出概念激活向量,助力神經網絡可解釋性研究

2021-01-08 機器之心Pro

選自 KDnuggets

作者:Jesus Rodriguez

機器之心編譯

參與:李詩萌、路

最近,谷歌大腦團隊發表了一篇論文,文中提出了一種叫做概念激活向量(Concept Activation vectors,CAV)的新方法,這種方法為深度學習模型的可解釋性提供了一個全新的視角。

可解釋性仍然是現代深度學習應用的最大挑戰之一。計算模型和深度學習研究領域近期取得了很大進展,創建了非常複雜的模型,這些模型可以包括數千個隱藏層、數千萬神經元。雖然創建高級深度神經網絡相對簡單,但理解如何創建這些模型以及它們如何使用知識仍然是一個挑戰。最近,谷歌大腦(Google Brain)團隊發表了一篇論文《Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)》,提出一種叫作「概念激活向量」(Concept Activation Vectors,CAV)的新方法,為深度學習模型的可解釋性提供了全新視角。

論文地址:https://arxiv.org/pdf/1711.11279.pdfGitHub 地址:https://github.com/tensorflow/tcav

可解釋性與準確率

理解 CAV 技術,需要首先理解深度學習模型可解釋性難題的本質。在這一代深度學習技術中,模型準確率與可解釋性之間存在永久的衝突。可解釋性與準確性之間的衝突也是實現複雜知識任務與如何實現這些任務之間的衝突。知識與控制、性能與可解釋性、效率與簡潔……這些問題都可以通過權衡準確率與可解釋性來解釋。

你想要最佳結果還是想理解這些結果是如何產生的?這是數據科學家在每個深度學習場景中都要回答的問題。很多深度學習技術本質上是複雜的,儘管在很多情況下它們產生的結果是準確的,但是它們難以解釋。如果我們繪製一些著名深度學習模型的可解釋性和準確率,可以得到:

深度學習模型的可解釋性不是一個單一的概念,可以跨多個層次來理解:

要跨越上圖定義的層次來解釋模型,需要一些基礎的構建塊。在近期的一篇文章中,谷歌的研究人員概述了他們認為解釋模型所需的基礎構建塊。

谷歌將可解釋性原則總結如下:

理解隱藏層做了什麼:深度學習模型中的大部分知識是在隱藏層中形成的。要解釋深度學習模型,必須要從宏觀角度理解不同隱藏層的功能。理解節點是如何激活的:可解釋性的關鍵不是理解網絡中單一神經元的功能,而是要理解在同一空間位置一起激活的互相連接的神經元組。通過互相連接的神經元組分割網絡可以從更簡單的抽象層次來理解其功能。理解概念是如何形成的:深度神經網絡如何形成可組裝成最終輸出的單個概念,理解這一問題是另一個關鍵的可解釋性構建塊。

而這些原則是谷歌新方法 CAV 的理論基礎。

概念激活向量(CAV)

如前所述,可解釋性的一般方法應該是根據深度模型所考慮的輸入特徵來描述其預測結果。一個經典例子就是 logistic 回歸分類器,一般會把分類器中的係數權重解釋為每個特徵的重要性。但大部分深度學習模型在特徵層面(如像素值)的運算,無法和人類能輕易理解的高級概念對應。此外,模型的內部值(例如神經激活)似乎是無法理解的。儘管像顯著性圖(saliency map)這樣的技術可以有效測量特定像素區域的重要性,但它們無法和更高級的概念相對應。

CAV 的核心思想是度量模型輸出中概念的相關性。對概念來說,CAV 是概念示例集的值方向上的一個向量。在他們的論文中,谷歌研究團隊還提到了一種名為 TCAV(Testing with CAV)的新型線性可解釋性方法,這種方法用方向導數(directional derivatives)來量化模型預測對 CAV 學習到的底層高級概念的敏感度。從概念上講,定義 TCAV 有以下四個目標:

易於訪問:用戶幾乎不需要 ML 專業知識。可定製化:適應任何概念(比如性別),而且不受限於訓練過程中所考慮的概念。插件準備:不需要重新訓練或修改 ML 模型就可以直接工作。全局量化:用單個量化方法就可以解釋整個類或整組示例,而且不只是解釋數據輸入。

為了實現上述目標,TCAV 方法分為三個基本步驟:

給模型定義相關概念;理解預測結果對這些概念的敏感度;全局定量解釋每個概念對每個模型預測類的相對重要性。

TCAV 方法中的第一步是定義感興趣的概念(CAV)。TCAV 使用的方法是,選擇一組可以表示這個概念的示例集,或者可以找到具備該概念的獨立數據集的示例集。通過訓練能夠分辨概念示例產生的激活和任意層產生的激活的線性分類器,學得 CAV。

第二步是生成 TCAV 分數,該分數表示預測結果對特定概念的敏感度。TCAV 用方向導數實現了這一點,方向導數可以在神經激活層衡量 ML 預測值對沿著概念方向變化的輸入的敏感度。

最後一步是評估學到的 CAV 的全局相關性,來避免依賴不相關的 CAV。TCAV 技術的一大缺陷是可能學到無意義的 CAV。畢竟,就算用隨機選擇的一組圖片也會得到 CAV。基於這種隨機概念的測試不太可能有意義。為了解決這一問題,TCAV 引入了統計顯著性檢驗,根據隨機的訓練次數(一般是 500 次)評估 CAV。這一步的思路是,有意義的概念會讓訓練過程中的 TCAV 分數保持一致。

TCAV 的效果

谷歌大腦團隊進行了多項實驗來對比 TCAV 和其他可解釋性方法的效率。在最引人矚目的一項實驗中,該團隊用顯著性圖來理解計程車的概念。該顯著性圖的輸出如下圖所示:

谷歌大腦團隊用這些圖像作為測試數據集,在 Amazon Mechanical Turk 上用 50 人進行了實驗。每個人做 6 項任務(3 object classes x 2s aliency map types),所有這些任務都針對單個模型。任務順序是隨機的。在每項任務中,工作人員首先會看到四張圖像及其對應的顯著性掩碼(saliency mask)。然後他們對圖像對模型的重要性(10 分制)、標題對模型的重要性(10 分制)以及他們對自己答案的確信程度(5 分制)等問題進行打分。這些工作人員一共評估了 60 張不同的圖像(120 個不同的顯著性圖)。

實驗的基本事實是圖像概念與標題概念更相關。但當看到顯著性圖時,人們認為標題概念更重要(0% 噪聲模型)或沒有差別(100% 噪聲模型)。相比之下,TCAV 的結果正確地表明了圖像概念更重要。

TCAV 是近幾年間研究神經網絡可解釋性領域中最具創新性的方法之一。GitHub 上有 TCAV 的初始技術代碼,我們期待看到一些主流深度學習框架會採用這一想法。

相關焦點

  • 用概念激活向量 (CAVs) 理解深度網絡
    可解釋性仍然是現代深度學習應用的最大挑戰之一。最近在計算模型和深度學習研究方面的進展,使創建高度複雜的模型成為可能,這些模型可以包括數千個隱藏層和數千萬個神經元。雖然創建令人驚訝的高級的深度神經網絡模型相對簡單,但理解這些模型如何創建和使用知識仍然是一個挑戰。
  • 圖神經網絡GNN的可解釋性問題與解釋方法最新進展
    卷積神經網絡(Convolutional Neural Network,CNN)和圖神經網絡(Graph Neural Network,GNN)的主要區別是什麼?簡單來說,就是輸入數據。你可能還記得,CNN 所需的輸入是一個固定大小的向量或矩陣。然而,某些類型的數據自然是用圖表示的,如分子、引用網絡或社交媒體連接網絡都可以用圖數據來表示。
  • Hinton等人新研究:如何更好地測量神經網絡表示相似性
    近期很多研究試圖通過對比神經網絡表示來理解神經網絡的行為。谷歌大腦 Simon Kornblith、Geoffrey Hinton 等人的一項新研究引入了 centered kernel alignment (CKA) 作為相似性指數,並分析 CKA、線性回歸、典型相關分析(CCA)等相關方法之間的關係,證明 CKA 優於其他相似性指數。
  • 谷歌大腦:只要網絡足夠寬,激活函數皆可拋
    選自arXiv作者:Jaehoon Lee 等機器之心編輯部深度神經網絡以其強大的非線性能力為傲,藉助它可以擬合圖像和語音等複雜數據。但最近谷歌大腦的研究者表明只要網絡足夠寬,線性化的網絡可以產生和原版網絡相近的預測結果和準確率,即使沒有激活函數也一樣。
  • 谷歌大腦開發機器思維的「人類翻譯器」,打破AI「黑盒」新方式
    作為「可解釋」機器學習的專家,她希望構建一個能夠向任何人解釋人工智慧的軟體。自從十年前人工智慧興起以來,人工智慧中的神經網絡技術已經從電子郵件滲透到了藥物研究等各個方面,它具有越來越強大的能力來學習和識別出數據中的模式。
  • 結合神經網絡,提升ImageNet分類準確率且可解釋
    BAIR公布神經支持決策樹新研究,兼顧準確率與可解釋性。隨著深度學習在金融、醫療等領域的不斷落地,模型的可解釋性成了一個非常大的痛點,因為這些領域需要的是預測準確而且可以解釋其行為的模型。然而,深度神經網絡缺乏可解釋性也是出了名的,這就帶來了一種矛盾。
  • 谷歌大腦重磅研究:快速可微分排序算法,速度快出一個數量級
    現在,谷歌大腦針對這一問題,提出了一種快速可微分排序算法,並且,時間複雜度達到了O(nlogn),空間複雜度達為O(n)。速度比現有方法快出一個數量級!代碼的PyTorch、TensorFlow和JAX版本即將開源。
  • 業界| 分子性質預測新突破:谷歌新型神經網絡助力化學研究
    我們最近發表了兩篇介紹我們在這一領域的相關研究的論文,這些成果來自於谷歌大腦團隊、Google Accelerated Science 團隊、DeepMind 和巴塞爾大學之間的合作。在這個基準上嘗試了許多機器學習方法之後,我們開始努力改進最有潛力的深度神經網絡。
  • 人工智慧瓶頸之神經網絡的可解釋探討
    目前,神經網絡可解釋性的研究大多基於數據可視化和代理模型等技術,即在深度神經網絡模型構建前後,對輸入、輸出進行可視化,並依此對神經網絡層進行解釋。這是對深度神經網絡模型可判讀性的研究,其本質上僅涉及到深度學習智能系統安全中的不可驗證問題。換言之,這些工作難以解決其所面臨的不可審查問題。
  • 重磅| 谷歌大腦養成記:從識別貓到突破性機器翻譯
    每個人都好奇:谷歌翻譯是怎麼變得如此驚豔的?谷歌公司的人工智慧研究機構谷歌大腦(Google Brain)成立於五年前。成立原則是:通過試錯熟悉周圍世界的人工「神經網絡」或許會發展出類似人類的靈活能力。這個概念不是新東西。不過,其大部分歷史,在絕大多數計算機科學家看來,有些狼藉甚至神秘。
  • 人工神經網絡的驅動者:激活函數是什麼?
    圖源:unsplash激活函數是人工神經網絡的驅動因素,其位於神經元之上,並管理著神經元行為,比如是否需要處理某個輸入數據,若需要,又以何種程度處理等等。從技術上來講,某個節點的激活函數將其在神經網絡中前一個節點的數據輸入,並輸出一個確定值,這個值繼而指導後續節點如何發動來響應特定輸入信號。本文剖析由激活函數組成的神經網絡,以及神經網絡的生物類似物,並簡要介紹幾種常用的激活函數。神經網絡的結構作為一名數據科學愛好者,你一定見過上面的這張圖片或者與之相似的圖片。這張圖片是對雙層神經網絡工作流程的經典描述。
  • 激活靜息態神經幹細胞 或可修復大腦損傷
    激活靜息態神經幹細胞 或可修復大腦損傷神經幹細胞(NSCs)是一種多能祖細胞,負責產生神經系統中所有的神經元和大膠質細胞。在成年哺乳動物中,神經幹細胞主要處於一種「休眠」狀態,但它們可以在進食或運動等環境因素的影響下增殖。
  • Nature通訊:判別神經網絡間的個體差異——計算神經科學新工具
    例如現在如果想研究哺乳動物的大腦是如何區別貓和狗的,可以去考察判別貓和狗的神經網絡是如何工作的。然而11月12日Nature Communications雜誌在線發表的論文指出,由於神經網絡的訓練初始條件和超參數不同,即使具有相近的判別精度,不同的神經網絡也存在顯著差異。該研究還指出在比較網絡結構差異性時,需要考慮對比多組而不是多個神經網絡間的區別。
  • 告別調參煉丹,谷歌「權重無關」神經網絡開源了!
    其關鍵思想是通過不再強調權重來搜索網絡結構,僅使用隨機共享的權重,也可以執行各種任務的神經網絡。終於可以不用調參煉丹了嗎?快來復現看看! 神經網絡訓練中 「權重」 有多重要不言而喻。但谷歌前段時間發表的研究表明,即使拋棄神經網絡權重訓練,使用隨機共享權重,也可以執行各種任務。
  • NeurIPS 2019:兩種視角帶你了解網絡可解釋性的研究和進展
    在 NeurIPS 2019 上,有些學者在網絡的可解釋性上發表了自己的研究。以下就兩篇論文從兩種不同的角度來描述研究者們對於泛化能力的理解和解釋。既然人是通過 this looks like that 來解釋的,那麼機器學習的模型是否可以模仿這個過程來解釋模型推理的依據呢?本文提出的 ProtoPNet 就是從推理的可解釋性角度來處理圖像。該網絡的結構如下圖所示:圖 2:ProtoPNet 網絡結構。如圖 2 所示,輸入一張推理圖片,輸出分類的結果。
  • 從ReLU到GELU,一文概覽神經網絡的激活函數
    在這篇長文中,我將全面介紹六種不同的激活函數,並闡述它們各自的優缺點。我會給出激活函數的方程和微分方程,還會給出它們的圖示。本文的目標是以簡單的術語解釋這些方程以及圖。我會介紹梯度消失和爆炸問題;對於後者,我將按照 Nielsen 提出的那個很贊的示例來解釋梯度爆炸的原因。
  • 裴健團隊KDD新作:革命性的新方法,準確、一致地解釋深度神經網絡
    隨著深度神經網絡在金融、醫療及自動駕駛等領域的廣泛應用,深度神經網絡無法明確解釋自身決策行為的問題也引起了越來越多的關注。明確解釋深度神經網絡的決策行為,能夠大幅提升各類用戶對深度神經網絡的信任,並顯著降低大規模使用深度神經網絡所帶來的潛在風險,是基於深度神經網絡的人工智慧應用成功落地的重要一環。
  • ICML 2019 | 神經網絡的可解釋性,從經驗主義到數學建模
    大家說神經網絡是「黑箱」,其含義至少有以下兩個方面:一、神經網絡特徵或決策邏輯在語義層面難以理解;二、缺少數學工具去診斷與評測網絡的特徵表達能力(比如,去解釋深度模型所建模的知識量、其泛化能力和收斂速度),進而解釋目前不同神經網絡模型的信息處理特點。
  • 神經網絡如何完成表徵?
    眾所周知,它們在解決有關泛化性方面的複雜任務中表現良好。從數學上講,他們非常擅長近似任何的複雜函數。讓我們形象化地理解這種近似概念,而不是前向和後向傳播方法中的最小化預測誤差。假設你了解前向和後向傳播的一點基礎,其旨在藉助梯度和網絡中的錯誤傳播來近似函數。讓我們通過另一種視覺解釋來理解神經網絡的近似能力。其中涉及基礎數學和圖形分析。
  • 谷歌推出神經網絡翻譯 中譯英水平匹敵真人?
    神經機器翻譯與以往的翻譯模式用的是同樣一本大詞典,但舊的翻譯模式只是逐個查詞,而神經機器翻譯卻訓練出兩種神經網絡,可以生產出另一種語言的完整的文本。這對於漢語翻譯是極為重要的,因為漢語中由於搭配不同導致一個詞往往有不同的意思。 谷歌神經網絡翻譯為何能夠在準確性上有質的飛躍?