可解釋性仍然是現代深度學習應用的最大挑戰之一。最近在計算模型和深度學習研究方面的進展,使創建高度複雜的模型成為可能,這些模型可以包括數千個隱藏層和數千萬個神經元。雖然創建令人驚訝的高級的深度神經網絡模型相對簡單,但理解這些模型如何創建和使用知識仍然是一個挑戰。最近,來自谷歌大腦研究小組的研究人員發表了一篇論文,提出了一種新的方法,稱為概念激活載體(CAVs),這為深度學習模型的可解釋性提供了一個新的視角。
詳見論文:https://arxiv.org/pdf/1711.11279.pdf
可解釋性vs準確性
為了理解CAV技術,了解深度學習模型中可解釋性的本質是非常重要的。在當前的深度學習技術中,模型的準確性和我們解釋其知識表達的能力之間存在著永恆的鴻溝。可解釋性-準確性的矛盾是指能夠複雜知識表達的任務和理解這些任務是如何完成的之間的矛盾。知識表達vs理解,性能vs可說明性,效率vs.簡單程度……任何模稜兩可的事物,都可以通過在準確性和可解釋性之間進行權衡來解釋。
你關心的是獲得較好的結果還是理解這些結果是如何產生的?這是數據科學家在每一個深度學習場景中都需要回答的問題。許多深度學習技術在本質上是複雜的,儘管它們在許多場景中都非常精確,但它們可能變得難以解釋。如果我們能將一些最著名的深度學習模型繪製在一張圖表上,並將其與準確性和可解釋性聯繫起來,我們將得到如下結果:
深度學習模型的可解釋性不是一個單一的概念,而是需要跨越多個層次來理解:
要在前面圖中定義的每一層之間實現可解釋性,需要幾個基本的組成部分。在最近的一篇論文中,來自谷歌的研究人員簡述了他們認為的可解釋性的一些基本構件,詳見論文:https://distill.pub/2018/building-blocks/。
谷歌將可解釋性的原則總結如下:
理解隱藏層的作用:深度學習模型中的大部分知識都是在隱藏層中形成的。在宏觀層面理解不同隱藏層的功能對於能夠解釋深度學習模型是至關重要的。理解節點是如何被激活的:可解釋性的關鍵不在於理解網絡中單個神經元的功能,而在於理解在同一空間位置一起激活的相互連接的神經元群。通過一組相互連接的神經元群對網絡進行分割,可以提供一個更簡單的抽象層次來理解其功能。理解概念是如何形成的:理解深層神經網絡是如何形成單個概念,然後將這些概念組裝成最終的輸出,這是可解釋性的另一個關鍵構建模塊。 這些原則是谷歌CAV技術的理論基礎。
激活概念向量
按照上一節討論的想法,解決解釋性比較恰當的方法應該是根據它所考慮的輸入特性來描述深度學習模型的預測。一個經典的例子是logistic回歸分類器,其中係數權重通常被解釋為每個特徵的重要程度。然而,大多數深度學習模型處理的特徵,如像素值,並不對應於人類容易理解的高級概念。此外,模型的內部值(例如,神經元的激活)似乎是不可理解的。雖然像顯著性檢測這樣的技術在測量特定像素區域的重要程度方面是有效的,但是它們仍然不能與更高層次的概念相關聯。
CAV的核心思想是度量模型輸出的概念的相關性。CAV的概念只是指一個向量,指向該概念值(例如,激活值)的方向。在他們的論文中,谷歌研究小組簡述了一種新的線性可解釋性方法,被稱為CAV測試(TCAV),它使用方向導數來量化模型預測對於CAV學習的高級概念的敏感性。在概念上,TCAV的定義有四個目標:
易訪問性:幾乎不需要用戶機器學習專業知識。 適應性:適應任何概念(如性別),並不限於訓練中獲得的概念。即插即用:無需對機器學習模型進行任何再訓練或修改即可有效。全局量化:可以用單個量化度量解釋整個類別或示例集,而不只是解釋單個數據輸入。
為了實現上述目標,TCAV方法定義為三個基本步驟:
1) 定義模型的相關概念。
2) 理解這些概念對預測的敏感性。
3) 對各概念相對於每個模型所需要預測的類別的相對重要性進行整體定量解釋。
TCAV方法的第一步是確定感興趣的概念(CAV)。TCAV方法只需要選擇一組表示這個概念的示例,或者找到一個帶有這個概念標籤的數據集,就可以實現這一點。CAVs是通過訓練線性分類器來區分是概念樣本激活的還是其他的任意層中的樣本所激活的。
第二步是生成一個TCAV評分,量化特定概念對預測結果的敏感性。TCAV是通過使用方向導數來實現這一目的的,方向導數可以在神經激活層測量ML預測相對於概念輸入方向變化的敏感度。
最後一步是評估學習的CAVs的整體相關性,避免依賴於不相關的CAVs。畢竟,TCAV技術的一個缺點就是會學習可能毫無意義的CAV概念。畢竟,使用隨機選擇的一組圖像同樣會產生CAV。基於這種隨機概念的測試不太可能有意義。為了解決這個問題,TCAV引入了一個重要性統計測試,它根據隨機的訓練次數(通常為500次)來評估CAV算法。這個想法有意義地方在於保持TCAV分數在訓練過程中保持一致。
運動 TCAV
谷歌大腦進行了幾項實驗來評估TCAV與其他解釋方法相比的效率。在其中一個最引人注目的測試中,研究小組使用了一個顯著性map,試圖預測標題或圖片的相關性,以理解計程車的概念。顯著性map的輸出如下:
谷歌大腦研究小組使用這些圖像作為測試數據集,在Amazon Mechanical Turk上對50人進行了實驗。每個人做了一系列的6個任務(3個對象類 x 2個顯著性map類),都是針對一個模型。任務順序是隨機的。在每一項任務中,工作人員首先看到四幅圖像及其相應的顯著性掩模圖。然後他們對自己認為圖片對模型有多重要(10分制),標題對模型有多重要(10分制),以及他們對自己的答案有多確定(5分制)進行打分。總共對60張特定的圖像(120張特定的顯著性map圖)進行了評分。
實驗的基本事實是,圖像概念比標題概念更相關。然而,當人們看到顯著性map時,他們認為標題概念更重要(零噪聲模型),或者沒有辨別出區別(100%噪聲模型)。與此相反,TCAV結果正確地表明,圖像概念更為重要。
TCAV是近年來研究神經網絡可解釋性的最具創新性的方法之一。最初技術的代碼可以在GitHub上找到,我們期待看到這裡的一些想法被主流的深度學習框架所採用。
via https://towardsdatascience.com/this-new-google-technique-help-us-understand-how-neural-networks-are-thinking-229f783300
點擊【用概念激活向量 (CAVs) 理解深度網絡】查看相關內容和參考文獻噢~
今日資源推薦:AI入門、大數據、機器學習免費教程
35本世界頂級原本教程限時開放,這類書單由知名數據科學網站 KDnuggets 的副主編,同時也是資深的數據科學家、深度學習技術愛好者的Matthew Mayo推薦,他在機器學習和數據科學領域具有豐富的科研和從業經驗。
點擊連結即可獲取:https://ai.yanxishe.com/page/resourceDetail/417
雷鋒網雷鋒網雷鋒網