事後解釋VS自解釋,牛津CS博士小姐姐134頁畢業論文探索神經網絡...

2020-12-13 澎湃新聞

機器之心報導

編輯:小舟、杜偉

如何解釋深度神經網絡對於人工智慧的發展具有重要的作用,也吸引了越來越多學界和業界人士的注意。在這篇長達 134 頁的博士論文中,一位來自牛津大學的計算機科學博士生對這一課題進行了深入的探討,帶我們走進深度神經網絡的世界。

近年來,深度神經網絡正在計算機視覺、自然語言處理和語音識別等多種領域發揮著重要作用,推動了人工智慧的發展。但是,深度神經網絡仍存在一些局限性,例如這些模型的決策過程通常無法向用戶解釋。

但同時,在醫療、金融、法律等各個領域,了解人工智慧系統決策制定背後的原因至關重要。因此,研究人員已經探索出了解釋神經模型的一些方向。

10 月 6 日,牛津大學計算機科學博士生、且繼續攻讀XAI博士後的 Oana Camburu 在推特上公開了自己的博士論文《解釋深度神經網絡》(Explaining Deep Neural Networks),詳盡全面地介紹了不同類型的深度神經網絡解釋方法,並表示「社區中該領域的研究正在增長,非常高興自己進行了相對深入的挖掘。」

在這篇博士論文中,作者深入探究了解釋深度神經網絡的兩個主要方向。第一個方向包括基於特徵的事後(post-hoc)解釋方法,即旨在解釋已經訓練和固定模型的方法,並提供輸入特徵方面的解釋,如文本 token 和圖像超像素。第二個方向包括生成自然語言解釋的自解釋(self-explanatory)神經模型,即具有內置模塊且能夠生成模型預測解釋的模型。

這篇博士論文具有以下幾方面的貢獻:

作者揭示了僅使用輸入特徵來解釋模型具有一定的難度。她指出,對於某些模型和實例而言,存在著不止一種 ground-truth 特徵解釋,所以一種解釋(或解釋器)的真實性取決於實踐中偏好的 ground-truth 解釋類型;

作者提出了一種自動驗證真實性的框架,藉助於這個框架,基於特徵的 post-hoc 解釋方法可以描述它們想要解釋的模型的決策制定過程。這種框架是通用的,並可以在不同任務和域上實例化,以提供用於測試基於特徵事後解釋方法的完整性測試;

為了探索生成為自身生成自然語言解釋的自解釋神經模型方向,作者在斯坦福自然語言理解推理(Stanford Natural Language Inference, SNLI)數據集的基礎上創建了一個包含約 570K 個人類書面自然語言解釋的大型數據集,並將這種解釋增強的數據集稱為 e-SNLI;

作者證明了當前自解釋模型在為預測生成自然語言解釋時,會產生不一致的解釋。為此,她提出了一種簡單卻有效的對抗框架,從而防止產生不一致的自然語言解釋。

機器之心對該論文的核心內容進行了簡要介紹,感興趣的讀者可以閱讀原論文。

論文地址:https://arxiv.org/pdf/2010.01496.pdf

解釋深度神經網絡的重要性

研究表明,神經網絡成功的關鍵因素是其具備深度這一能力,即成功的神經網絡可以由大量的非線性函數組成。直觀地講,多層非線性函數使網絡可以學習原始數據和預測之間各種抽象級別的特徵。但是,這些都是以可解釋性為代價的。這是因為為大量非線性函數的複雜組成提供人類可理解的解釋是一個未能解答的困難問題。

因此,在諸如健康診斷、信用額度或刑事司法等對安全至關重要的應用中,人們可能仍然更喜歡採用準確性較低但人類可解釋的模型,例如線性回歸和決策樹。

在 MNIST 數據集上訓練的 4 層深度的軟決策樹可視化圖。來源:Nicholas Frosst 和 Geoffrey Hinton 的 2017 論文《Distilling a Neural Network Into a Soft Decision Tree》。

對於神經網絡決策過程的質疑是有道理的,因為已經有研究表明,看似非常準確的此類系統可以輕鬆地依靠數據集中的偽相關性(也稱為統計偏差或偽影)來提供正確答案。研究表明,在實踐中使用這種依賴偽相關性的模型非常危險。

黑盒系統中不可信的另一個原因是這些系統自身可能存在著一些主觀偏見,例如種族主義、性別歧視或者其他類型的歧視或主觀性。

此外,大量的對抗攻擊表明,這些看似高度準確的神經網絡具有脆弱性。神經網絡中的對抗性攻擊在自然語言處理和語音識別等其他領域也具有相當高的成功率。對抗性攻擊揭示的深度神經網絡的脆弱性使人們對這些方法的潛在學習決策過程產生了懷疑。

因此,為了使神經網絡系統贏得廣泛的公眾信任,並確保這些系統確實是公平的,必須為這些模型的決策給出人類可理解的解釋。

事後解釋(Post-hoc) VS 自解釋(Self-explanatory)方法

越來越多的多樣化研究不遺餘力地解釋深度神經網絡,這些方法在很多方面都存在著很大差異。事後解釋和自解釋時當前最主要的兩種神經網絡解釋方法。

事後解釋是旨在解釋已經訓練和固定的目標模型的獨立方法。例如 LIME(Ribeiro 等人於 2016 年提出)就是一種事後解釋方法,它通過在模型預測的鄰域上學習可解釋的模型(如線性回歸)來解釋目標模型的預測。如前文所述,這種解釋方法針對的是文本 token 和圖像超像素,即所謂的基於特徵。

Shapley 解釋器和最小充分子集(minimal sufficient subset)解釋器分別提供了至少兩種 ground-truth 基於特徵的解釋。

目前,基於特徵的事後解釋方法比較流行,也不容易出現解釋偏見,但是真實性需要驗證。這就引出了第二種方法:自解釋。

自解釋模型是目標模型,這些模型將解釋生成模塊集成到自身架構中,以便它們為自己的預測提供解釋。從較高的層面而言,自解釋模型具有兩個相互關聯的模塊:預測器模塊,即模型中專門用於預測手頭任務的部分;解釋生成器模塊,作為模型的一部分,它為預測器所做的預測提供解釋。此外,自解釋模型不是必須對解釋做出監督。

作者使用一個解釋生成器(explanation generator)增強了 BiLSTM-Max 模型。具體而言,作者將特徵向量 f 連接到單層 LSTM 解碼器,既作為一種初始狀態,又在每個時間步上級聯到詞嵌入輸入。由此創建了一個新的模型 BiLSTM-Max-PredExpl,具體結構如下圖 5.2 所示:

兩種解釋方法各有利弊

研究人員在實踐中需要根據具體情況來選擇適當的解釋方法。通常而言,自解釋模型的預測器和解釋生成器是一起訓練的,解釋生成器的存在會影響預測器的訓練。而事後解釋方法則不同,它對已訓練和固定目標模型做出的所有預測都不會造成影響。因此,當帶有額外解釋生成器的增強型神經網絡的任務性能顯著低於僅訓練用於執行任務的神經網絡時,研究人員可能更傾向於使用事後解釋方法的模型。

另一方面可能出現如下情況,利用解釋生成器增強神經網絡並聯合訓練它們,可能會促使手頭任務的性能更好。這可能是由於模型架構中存在額外指導,或者存在對解釋的額外監督。

舉例而言,在情感分析任務中,Lei 等人(2016 年)獲得的結果是,在不對解釋進行任何監督的情況下,添加中間解釋生成器模塊不會削弱性能。又如,在常識問題解答的任務上,Rajani 等人(2019 年)通過帶有監督的自解釋模型,實現了比僅訓練用於執行任務的神經網絡更好的性能。

因此,事後解釋和自解釋這兩類方法各有利弊。

作者簡介

這篇論文的作者是牛津大學計算機科學博士生 Oana-Maria Camburu,她來自羅馬尼亞。Oana-Maria Camburu 曾獲國際數學奧林匹克競賽(IMO)銀牌,目前的主要研究方向是機器學習。此外,她的論文曾被 ACL、EMNLP 等人工智慧頂會收錄。

以下是這篇博士論文的章節目錄:

從算法到應用,入門聲紋技術。

10月19日,第一講:音頻基礎與聲紋識別。谷歌資深軟體工程師、聲紋識別與語言識別團隊負責人王泉老師將介紹聲紋識別技術相關基礎知識,包括發展歷程、聽覺感知和音頻處理相關基本概念與方法、聲紋領域最核心的應用聲紋識別等。

添加機器之心小助手(syncedai5),備註「聲紋」,進群一起看直播。

© THE END

轉載請聯繫本公眾號獲得授權

投稿或尋求報導:content@jiqizhixin.com

喜歡此內容的人還喜歡

原標題:《事後解釋VS自解釋,牛津CS博士小姐姐134頁畢業論文探索神經網絡內部構造》

閱讀原文

相關焦點

  • 打開深度學習黑箱,牛津大學博士小姐姐分享134頁畢業論文
    近日,一篇134頁的博士論文《Explaining Deep Neural Networks》受到了廣泛的關注,作者Oana-Maria Camburu在論文中介紹了不同類型的神經網絡解釋方法,即事後解釋和自解釋,並對兩種方法進行了分析和驗證,並表示「這項工作為獲得更魯棒的神經模型以及對它們預測的可信解釋鋪平了道路。」
  • 神經網絡「煉丹爐」內部構造長啥樣?牛津大學博士小姐姐用論文解讀
    如果只做簡單的圖像分類,其實還好;但如果用在醫學方向,對疾病進行預測,那麼神經網絡下的「判斷」就不可輕信。如果能了解它是怎麼工作的,就更好了。出於這種考慮,來自牛津大學的博士生Oana-Maria Camburu撰寫了畢業論文《解釋神經網絡 (Explaining Deep Neural Networks)》。
  • 2840頁的計算機畢業論文,德州奧斯汀華人博士究竟寫了啥
    你沒看錯,這就是來自德克薩斯大學奧斯汀分校的一篇計算機科學系博士畢業論文。說實話,計算機系的教材都沒有編寫得這麼厚……那麼,這篇畢業論文到底都寫了啥?3個角度,研究矩陣理論這篇論文,主要從三個角度,對機器學習、理論計算科學中的矩陣理論進行了研究。
  • ICLR 2021 | 自解釋神經網絡—Shapley Explanation Networks
    ,作為層間特徵,這樣的神經網絡模型有了新的功能:1.代碼連結:https://github.com/RuiWang1998/ShapleyExplanationNetworksPC評價:the paper yields an innovation to a widely-used approach to one of the most pressing current research problems.簡介深度神經網絡的可解釋性是一個非常重要的問題
  • 一圖抵千言:帶你了解最直觀的神經網絡架構可視化
    解釋神經網絡的層在了解網絡架構之前,我們先來關注一下網絡的基本構建模塊——層。還有一個表示神經網絡模塊層次的有趣方法:圖源:http://deepscene.cs.uni-freiburg.de/>神經網絡架構可視化的自動化工具你可以手動繪製網絡。
  • 2840 頁的計算機畢業論文,這位華人小哥的博士論文究竟寫了啥?
    轉自 | 機器之心一篇長達 2840 頁的博士論文,都是關於矩陣理論的,可以當教材了。一篇論文的篇幅竟然多達數千頁,比很多教材都要厚,這簡直無法想像。不過,學術界的「能人異士」層出不窮,德州大學奧斯汀分校的 CS 博士生 Zhao Song 就做到了。這是一篇 2019 年 8 月提交的博士論文,總篇幅達到了 2840 頁,其中目錄就佔了 31 頁。此外在致謝部分,論文作者還以整整 5 頁的篇幅感謝了合作者、提供寶貴意見以及讀博期間幫助過他的人。
  • 人工智慧瓶頸之神經網絡的可解釋探討
    目前,神經網絡可解釋性的研究大多基於數據可視化和代理模型等技術,即在深度神經網絡模型構建前後,對輸入、輸出進行可視化,並依此對神經網絡層進行解釋。這是對深度神經網絡模型可判讀性的研究,其本質上僅涉及到深度學習智能系統安全中的不可驗證問題。換言之,這些工作難以解決其所面臨的不可審查問題。
  • 突破AI和機器理解的界限,牛津博士論文學習重建和分割3D物體
    牛津大學計算機科學系博士生 Bo Yang 在其畢業論文中詳細解讀了如何重建和分割 3D 物體,進而賦予機器感知 3D 環境的能力,突破了人工智慧和機器理解的界限。賦予機器像人類一樣感知三維真實世界的能力,這是人工智慧領域的一個根本且長期存在的主題。考慮到視覺輸入具有不同類型,如二維或三維傳感器獲取的圖像或點雲,該領域研究中一個重要的目標是理解三維環境的幾何結構和語義。
  • 馬英九的論文能查 蔡博士論文怕被人看?
    遊梓翔說,臺灣地區在英美完成博士學位的人很多,英國的博士論文除了畢業學校,會由英國圖書館的EThOS編目,其中大量論文作者都會開放下載。而美國的博士論文除了畢業學校的圖書館外,詳細數據會編入ProQuest資料庫。
  • 結合神經網絡,提升ImageNet分類準確率且可解釋
    BAIR公布神經支持決策樹新研究,兼顧準確率與可解釋性。隨著深度學習在金融、醫療等領域的不斷落地,模型的可解釋性成了一個非常大的痛點,因為這些領域需要的是預測準確而且可以解釋其行為的模型。然而,深度神經網絡缺乏可解釋性也是出了名的,這就帶來了一種矛盾。
  • 蔡英文回應博士論文造假稱「真的假不了」,臺學者:為何怕被看?
    他質疑,臺灣地區前領導人馬英九、前新北市長朱立倫和前臺中市長胡志強的博士論文都查得到,為何蔡英文博士論文卻怕被看?遊梓翔臉書截圖據臺灣「中時電子報」報導,針對蔡英文博士論文被質疑造假,遊梓翔19日在臉書發文表示,蔡英文辦公室要解釋的是,蔡英文這份幾乎要拿「1.5個博士」的論文,為什麼不能公開讓大家「拜讀」?
  • NIPS 2017系列 | 利用 SVCCA 解釋深度神經網絡
    為了構建更好、更可靠的 DNN 系統,能夠解釋這些模型就顯得尤為重要。具體來說,我們想要為 DNN 引入一種表示相似性概念:我們能夠有效確定兩個神經網絡學到的表示在何時相同嗎?我們研究的兩個具體應用是比較不同網絡學到的表示和解釋 DNN 中的隱藏層學到的表示。此外,我們還將代碼開源,以便研究社區可以使用這種方法進行試驗:https://github.com/google/svcca我們設置的關鍵是將 DNN 中的每一個神經元解釋為一個激活矢量。如下圖中所示,神經元的激活矢量是它在輸入數據上生成的標量輸出。
  • 這些教授在招AI博士/碩士,來自上海交大、內華達大學、密西根等高校
    他的研究興趣涵蓋計算機視覺和機器學習,在深度學習、圖論、無監督學習、目標檢測、三維重建、三維點雲處理、知識挖掘等四個領域發表過頂級期刊和會議論文。目前,他的研究重點包括但不限於提升神經網絡的可解釋性、無監督或弱監督學習、神經網絡表達向語義圖模型表達的轉化、探索神經網絡的內在表達對人類行為的反饋指導、解決構建全能型分布式神經網絡在效率和模塊化表達方面的瓶頸等。
  • 攜Science封面、NIPS最佳論文,CMU大神Noam博士畢業,論文已公開
    近日,這兩個 AI 系統的開發者之一、CMU 大神宣布其完成博士論文,並即將從 CMU 畢業。當地時間 9 月 21 日,FAIR 研究科學家 Noam Brown 在推特宣布其順利完成了 CMU 博士論文答辯,並公開了長達 230 頁的超硬核博士論文《Equilibrium Finding for Large Adversarial Imperfect-Information Games》以及 101 頁的 slides。
  • Facebook:易於解釋的神經元可能阻礙深度神經網絡的學習
    編輯:張倩、杜偉易於解釋的神經元對於提升神經網絡的性能來說是必要的嗎?Facebook 的研究者給出了出人意料的答案。AI 模型能「理解」什麼?為什麼能理解這些東西?回答這些問題對於復現和改進 AI 系統至關重要。
  • 論文被發現缺頁錯字,蔡英文博士學歷再被爆造假!
    民進黨官網提供的蔡英文個人簡歷顯示,她「取得美國康奈爾大學法學碩士後轉赴英國,在倫敦政經學院(LSE)主修法學、輔修國際貿易,獲頒法學博士學位」。29日,臺大名譽教授賀德芬舉行記者會,發布由臺裔學者林環牆所寫的「獨立調查報告:蔡英文博士論文與證書的真偽」。
  • 裴健團隊KDD新作:革命性的新方法,準確、一致地解釋深度神經網絡
    明確解釋深度神經網絡的決策行為,能夠大幅提升各類用戶對深度神經網絡的信任,並顯著降低大規模使用深度神經網絡所帶來的潛在風險,是基於深度神經網絡的人工智慧應用成功落地的重要一環。「模仿者模型方法」(Mimic Model Methods)該方法通過訓練一個可解釋的模仿者模型來模仿和解釋深度神經網絡。在輸入相同的前提下,模仿者模型具有與深度神經網絡相似的輸出。因此,有研究人員利用模仿者模型來解釋深度神經網絡。但是,模仿者模型和被模仿的神經網絡並非完全相同。
  • 論文被發現缺頁錯字,蔡英文博士學歷再被爆造假
    論文被發現缺頁錯字,蔡英文博士學歷再被爆造假) 【環球時報報導】繼綠營名嘴在社交平臺質疑蔡英文博士學位造假後,「獨派」學者29日又召開記者會提出四點證據,再證蔡英文假學歷。
  • 香港中文大學博士沈宇軍:生成對抗網絡的可解釋性研究及其應用
    神經網絡由於網絡特徵或決策邏輯在語義層面難以理解,同時也缺少數學工具去診斷與評測網絡的特徵表達能力,進而解釋目前不同神經網絡模型的信息處理特點,一直被大家稱為是一種「黑箱」。而如何對神經網絡進行「解釋」,稱為近年來的熱門研究方向。生成對抗網絡近年來隨著其不斷的發展,生成圖片的質量以及模型的訓練穩定性不斷提高。
  • 斯坦福陳丹琦博士論文中文版:神經網絡閱讀理解與超越【附156頁pdf】
    作者簡介:陳丹琦,清華本科(姚班),斯坦福博士即將畢業,師從Christopher Manning,畢業後成為普林斯頓大學計算機學院助理教授,在學期間曾在