打開人工智慧黑箱:看最新16篇可解釋深度學習文章,帶您了解增強AI透明性

2021-02-15 專知

【導讀】深度學習通常在監督任務上有較高的準確性,但是無法給出產出過程的明確解釋,這也是一直被詬病「黑箱模型」。而可解釋性AI在關於人類的很多應用方面是必需的,如醫療診斷、教育學習、政府決策等等。最近,關於深度學習的可解釋性,學者們做了大量的研究工作,專知整理關於深度學習可解釋性的最新一些文章,希望能給讀者提供一些參考和幫助。

請關注專知公眾號(掃一掃最下面專知二維碼,或者點擊上方藍色專知

專知開課啦!《深度學習: 算法到實戰》, 中科院博士為你講授!


可解釋人工智慧:從SML到XAI

美國darpa網站,描述了傳統機器學習模型與解釋性人工智慧模型的區別,現在的統計機器學習模型更加注重預測結果,比如推薦什麼,識別是什麼,什麼決定。

https://www.darpa.mil/program/explainable-artificial-intelligence

而解釋性人工智慧模型除了給出預測結果,還更加注重預測結果的過程,為什麼給出這樣的預測結果,做出解釋。增強 AI 模型的透明(transparency)是人機互信的前提。

比如

比如圖像識別的任務,現在的模型通過卷積神經網絡會識別出這是一隻貓。

可解釋人工智慧模型,會給出解釋,它有皮毛鬍鬚 爪子, 這一確認這是一隻貓。

最近《可解釋性深度學習》論文

1. 可解釋性卷積神經網絡

   在視覺識別方面,卷積神經網絡毫無疑問取得的巨大的識別性能提升。如何增強對識別過程的透明性,是一個重要的問題。這一方面,相關學者做了很多工作。周博磊博士(香港中文大學)和張拳石博士(上海交通大學)在這方面做了大量的工作。

視覺智能的可解釋表示學習

 Interpreting Deep Visual Representations via Network Dissection.
Bolei Zhou*, David Bau*, Aude Oliva, and Antonio Torralba. IEEE Transactions on Pattern Analysis and Machine Intelligence, June 2018. 

http://netdissect.csail.mit.edu/

Bolei Zhou, Interpretable Representation Learning for Visual Intelligence. PhD thesis submitted to MIT EECS, May 17, 2018.
Committee: Antonio Torralba, Aude Oliva, Bill Freeman.

http://people.csail.mit.edu/bzhou/publication/thesis.pdf

可解釋CNN

Visual interpretability for Deep Learning: a Survey. Quanshi Zhang and Song-Chun Zhu. Frontiers of Information Technology & Electronic Engineering. Vol. 19, No. 1, page 27-39, 2018

http://www.zhuanzhi.ai/paper/cc8b59ceb80123200f202301e1a81e2f

Interpretable Convolutional Neural Networks. Quanshi Zhang, Ying Nian Wu, and Song-Chun Zhu. CVPR (Spotlight) 2018 

http://www.zhuanzhi.ai/paper/e667f830addd942807055f020b80594c

Interpreting CNN Knowledge via an Explanatory Graph. Quanshi Zhang, Ruiming Cao, Feng Shi, Ying Nian Wu, and Song-Chun Zhu AAAI, 2018

http://www.zhuanzhi.ai/paper/e224cdc24f8c2a7f0fbfbb5f749d940a

2. 可解釋性循環神經網絡

周志華老師最新文章。Learning with Interpretable Structure from RNN. Bo-Jian Hou, Zhi-Hua Zhou

http://www.zhuanzhi.ai/paper/82929da4eacc81e9e25cf9f0e9770814

Relational recurrent neural networks. Adam Santoro,Ryan Faulkner,David Raposo,Jack Rae,Mike Chrzanowski,Theophane Weber,Daan Wierstra,Oriol Vinyals,Razvan Pascanu,Timothy Lillicraphttp://www.zhuanzhi.ai/paper/ecd625987c9e4c5dba887fa20fc1d3bd

Interpretable LSTMs For Whole-Brain Neuroimaging Analyses.  Armin W. Thomas, Hauke R. Heekeren, Klaus-Robert Müller, Wojciech Samek. https://arxiv.org/abs/1810.09945Interpretable Structure-Evolving LSTM. Xiaodan Liang, Liang Lin, Xiaohui Shen, Jiashi Feng, Shuicheng Yan, Eric P. Xinghttps://arxiv.org/pdf/1703.03055.pdf

3. 圖神經網絡

Deep Learning on Graphs: A Survey. Ziwei Zhang,Peng Cui,Wenwu Zhu

http://www.zhuanzhi.ai/paper/abe85f14a3697712fd1c3d0c3b5ddcb0

從聲學、圖像到自然語言處理,深度學習在許多領域都取得了成功。然而,將深度學習應用於無所不在的圖數據並非易事,因為圖形具有獨特的特性。近年來,這一領域的研究取得了很大的進展,極大地推動了圖分析技術的發展。在本研究中,我們全面回顧了應用於圖深度學習各種方法。我們將現有的方法分為三大類:半監督方法,包括圖神經網絡和圖卷積網絡; 非監督方法,包括圖自動編碼器; 然後,我們根據這些方法的發展歷史,系統地概述這些方法。我們還分析了這些方法的差異以及如何組合不同的體系結構。最後,簡要概述了它們的應用,並討論了未來可能的發展方向。

Graph Neural Networks: A Review of Methods and Applications. Jie Zhou,Ganqu Cui,Zhengyan Zhang,Cheng Yang,Zhiyuan Liu,Maosong Sun

http://www.zhuanzhi.ai/paper/488d7f3542ddb0fbda2d94de0a95f882

很多學習任務都需要處理圖形數據,這些數據包含了元素之間豐富的關係信息。建模物理系統,學習分子指紋,預測蛋白質界面,以及疾病分類都需要模型從圖形輸入中學習。在從文本、圖像等非結構化數據學習等領域,對提取出的句子依賴樹、圖像場景圖等結構進行推理是一個重要的研究課題,也需要圖形推理模型。圖神經網絡(GNNs)是一種連接主義模型,它通過在圖的節點之間傳遞消息來獲取圖的依賴性。與標準神經網絡不同的是,圖神經網絡保留了一種狀態,這種狀態可以用任意深度表示鄰居的信息。雖然原始圖神經網絡很難訓練成定點,但是最近在網絡結構、優化技術和並行計算方面的進展使得利用它們進行成功的學習成為可能。近年來,基於圖卷積網絡(GCN)和門控圖神經網絡(GGNN)的系統在上述許多任務上都表現出了突破性的性能。在本研究中,我們對現有的圖神經網絡模型進行了詳細的回顧,系統地對其應用進行了分類,並提出了四個有待進一步研究的問題。

A Comprehensive Survey on Graph Neural Networks. 

http://www.zhuanzhi.ai/paper/9b6b624c68a446ccc9b952c90c76c72b

摘要:近年來,從圖像分類到視頻處理再到語音識別和自然語言處理,深度學習已經變革了多項機器學習任務。這些任務中的數據通常表示在歐幾裡得空間中。然而,越來越多的應用使用非歐幾裡得域生成的數據,並將它們表示為具有複雜關係和相互依賴關係的圖。雖然圖數據的複雜性對現有機器學習算法提出了重大挑戰,但最近許多研究開始將深度學習方法擴展到圖數據。本文綜述了數據挖掘和機器學習領域中的圖神經網絡(GNN),並按照新的方法對圖神經網絡的最新進展進行了分類。在關注圖卷積網絡的同時,他們還回顧了最近開發的其他架構,例如圖注意力網絡、圖自編碼器,圖生成網絡以及圖時空網絡等。我們還進一步討論了圖神經網絡在多個領域的應用並總結了不同學習任務現有算法的開原始碼及基準。最後,我們提出了這一快速發展領域的研究方向。

4. 其他

SDRL: Interpretable and Data-efficient Deep Reinforcement Learning Leveraging Symbolic Planning. Daoming Lyu, Fangkai Yang, Bo Liu, Steven Gustafson. AAAI 2019Explaining AlphaGo: Interpreting Contextual Effects in Neural Networks. Zenan Ling, Haotian Ma, Yu Yang, Robert C. Qiu, Song-Chun Zhu, Quanshi Zhanghttp://www.zhuanzhi.ai/paper/098d54a6f36db868ab0ec5093d57fd67

Explainable Recommendation Through Attentive Multi-View Learning Jingyue Gao (Peking University)*; Xiting Wang (Microsoft Research Asia); Yasha Wang (Peking University); Xing Xie (Microsoft Research Asia) AAAI 2019. 

Explainable Reasoning over Knowledge Graphs for Recommendation

Xiang Wang, Dingxian Wang, Canran Xu, Xiangnan He, Yixin Cao, Tat-Seng Chua

http://www.zhuanzhi.ai/paper/c5aea5726ea76ff7beb8083bca1083c7

5. 更多可解釋人工智慧資料

Interesting resources related to XAI (Explainable Artificial Intelligence)

https://github.com/pbiecek/xai_resources

-END-

請加專知小助手微信(掃一掃如下二維碼添加),諮詢《深度學習:算法到實戰》參團限時優惠報名~

歡迎微信掃一掃加入專知人工智慧知識星球群,獲取專業知識教程視頻資料和與專家交流諮詢!

請PC登錄www.zhuanzhi.ai或者點擊閱讀原文,註冊登錄專知,獲取更多AI知識資料!

點擊「閱讀原文」,了解報名專知《深度學習:算法到實戰》課程

相關焦點

  • 【乾貨書】可解釋人工智慧(xAI)方法和深度元學習模型
    可解釋人工智慧(xAI)是近年來出現的一個有趣的問題。許多研究人員正試圖從不同的角度和有趣的結果來處理這個問題。
  • 最新的AI可幫助您解釋數據的含義
    打開APP 最新的AI可幫助您解釋數據的含義 發表於 2020-03-28 10:24:25 它只是其最新Tableau 2019.3版本中幾個有趣的新功能之一。 其他功能包括新的Tableau Catalog功能,使用戶可以更輕鬆地管理和發現最合適的數據。伺服器管理加載項,用於管理Tableau的大型部署;以及增強的自然語言處理能力。 該公司表示,Explain Data的全部目的是使對數據的複雜統計分析更易於訪問。
  • 淺談機器學習模型的可解釋性和透明性
    打開APP 淺談機器學習模型的可解釋性和透明性 YuZhang 發表於 2021-01-05 14:02:28 XAI 主要解決以下問題
  • 「AI工程論」AI的透明性(Transparent)及一種多因素評估方法
    問題#1:無法解釋的算法一個公認的問題是,一些機器學習算法是無法解釋的。也就是說,當一個決定已經做出或者模型已經得出了一些結論,比如分類或者回歸,對於模型是如何得出那個結論的理解是很少可見的。深度學習神經網絡,當今機器學習的前沿,尤其受到這個問題的困擾。
  • 北師大劉嘉:認知神經科學如何打開 AI 黑箱?
    在報告中,劉嘉教授首先回顧認知科學的歷史,解釋打開人腦黑箱的意義,然後通過一系列認知神經科學的實驗範式和研究技術,揭示了深度神經網絡的內部表徵與算法以打開AI的黑箱,展示了人腦與類腦雙腦融合的可能路徑。
  • 世界變革的開始: Human-Centered AI 以人為中心的人工智慧 (二)
    機緣巧合的情況下,了解到了歐盟的最新的 《以人為中心的人工智慧系統》項目,項目非常有趣,也將會對世界和歐盟的發展起到巨大的推動作用,。    第一個領域是學習、推理和規劃方法,這允許很大程度的交互性。為了促進人類和人工智慧系統之間基於信任和增強彼此能力的協作,智能系統必須不僅能夠在學習或推理任務結束時提供解釋。他們還提供進展的反饋,並能夠納入高級人力投入。我們將這種新方法稱為「人在循環中學習、推理和規劃」。
  • 如果AI沒有「黑箱」:顧澤蒼博士做客之江講壇
    在近一小時的講座中,顧澤蒼博士聚焦當前人工智慧深度學習存在的「黑箱問題」等缺陷,提出了新一代人工智慧Super Deep Learning模型(以下簡稱SDL模型)。AlphaGo戰勝頂尖棋手引發了公眾對人工智慧的廣泛討論,甚至有人斷言,AlphaGo大獲全勝標誌著人工智慧已達到極高水平。
  • 如何學習人工智慧?這裡有一份機器學習/AI領域最高質量的資源列表
    非技術資源如果你想要看下人工智慧的簡單介紹,請看 MIT Technology Review 的摘要:What is AI?這個總結可以和機器學習術語的概述一起學習:What is Machine Learning?
  • AI/機器學習2018年度進展綜述
    間的迭代,顯而易見的是深度學習不僅是存在的,並且它仍然是遠遠沒有達到它可達到的水平。例如,雖然數據增強已經存在一段時間了,而且對於許多深度學習應用程式來說很關鍵,但是今年穀歌發布了自動增強,它是一種自動增強訓練數據的深度強化學習方法。一個更極端的想法是用合成數據訓練深度學習模型。這已經在實踐中被嘗試了一段時間,並被許多人視為是人工智慧未來的關鍵。NVidia在使用合成數據進行深度學習訓練的論文中提出了有趣的新想法。
  • 深度學習的可解釋性研究(一):讓模型「說人話」
    非常開心本文成為 BIGSCity 興趣組的第一篇投稿,《深度學習的可解釋性研究》系列預計包含 3-4 篇內容,用儘可能淺顯的語言帶領大家了解可解釋性的概念與方法以及關於深度學習可解釋性工作的研究成果,不定期更新內容(歡迎催更)。可解釋性是什麼?
  • 大盤點:Top100 深度學習論文+7 篇下載量最多的 AI 研究文章!
    從人臉識別到網頁新聞推薦,都有它的身影,而這些也離不開深度學習。深度學習從大量數據中學習樣本數據的內在規律,最終讓機器能夠像人一樣具有分析學習能力,能夠識別文字、圖像和聲音等,並在語音和圖像識別方面取得巨大的成果。
  • 深度學習之父Geoffrey Hinton:AI寒冬不會出現
    整理 | 琥珀出品 | 本文轉載自AI科技大本營(rgznai100)【AI 科技大本營導讀】近日《連線》雜誌發表了一篇文章,記錄了與「深度學習之父」 Geoffrey Hinton 圍繞人工智慧倫理、技術、學術等領域的採訪實錄。
  • 人工智慧瓶頸之神經網絡的可解釋探討
    因此,隨著基於深度神經網絡的人工智慧系統的廣泛應用,亟須對神經網絡的可解釋性進行研究並構造可解釋的神經網絡,從而提高人工智慧系統的安全性,保障人工智慧應用在各大領域能安全有效地運行。針對上述人工智慧系統中的安全問題,國際標準化組織/國際電工委員會(ISO/IEC)成立了人工智慧可信研究組,開展人工智慧安全標準化的研究。
  • 10頁MIT可解釋機器學習最新論文
    【導讀】近期湧現了大量的關於可解釋性人工智慧(XAI)的研究。
  • 深度學習論戰 AI大神們在吵什麼
    深度學習是個「筐」 有人看半滿,有人看半空細讀馬庫斯後來發的這篇萬字長文,可以發現,不少人對他的質疑是:你忽略了深度學習取得的成績、你沒有說深度學習有哪些好處。言外之意,你對深度學習不是「真愛」,對它的好視而不見。
  • 人工智慧時代的算法裁判及其規制
    [5]3  人工智慧的核心是深度學習, 這種深度學習需要依賴以數據為基礎的算法運行, 通過算法人工智慧可以將超高運算效率與存儲容量納為己用, 實現似人類自身智能的增幅與擴容。[6]這種深度學習能力是人工智慧算法與傳統計算機技術的根本區別。深度學習通過提取數據中的抽象特徵, 實現對紛繁複雜的數據的高效處理、分類和學習, 從而能夠自動挖掘隱藏在數據中的規律和規則, 以備解決未來的難題。
  • 薦讀:五月最值得閱讀的15篇人工智慧文章
    在過去一個月中,15篇最值得閱讀的AI文章(附連結): 1、沃森的創造者想教人工智慧一個新把戲:常識Facebook 人工智慧部門的研究人員發布了這篇文章,解釋他們如何在臉書上對抗仇恨言論。
  • 2019 年 1 月 AI 最佳網文榜單最新出爐!
    如果你希望改進自主提出的想法,你可以前往閱讀這篇文章,它描述了得益於深度強化學習(DRL)實施所帶來的新特徵。我也特別附上了這篇文章的連結,以幫助大家理解 Tensorow 2.0 主要發生了哪些變化。Tensorow 2.0 依舊還在測試階段,但是你已經可以嘗試使用這個版本,同時回答這個問題:Tensorow 2.0 是否便捷了你的生活?
  • 讓DL可解釋?這一份66頁貝葉斯深度學習教程告訴你
    【導讀】貝葉斯深度學習對於理解深度學習這個黑盒子能提供可解釋性,在深度學習理論研究中這幾年也是非常地熱。
  • 深度學習框架 fast.ai 2.0 正式發布
    經歷了長久的等待之後,深度學習框架 fast.ai 2.0 版本終於正式發布了。fast.ai 課程,是為了踐行 Jeremy Howard 「讓深度學習不再酷」的承諾。這話的意思是也消除掉門檻,讓更多沒有高等數學和統計專業基礎的人,都有機會來了解和應用深度學習。關於這個事兒,我在《如何從零基礎學最前沿的 Python 深度學習?》一文中,給你介紹過。