AI研究:如何讓機器學習算法解釋自己的決策?

2020-12-16 36氪

編者按:本文來自網易智能,編譯:編譯:網易見外智能編譯平臺;36氪經授權發布。

我們發現神經網絡如此神秘,這可能並不奇怪,因為它們基本上是基於人類大腦而建立的,我們也在努力破譯這些神經網絡。他們學習的模型並不像傳統的電腦程式那樣整齊地存儲在資料庫中,而是由成千上萬的虛擬神經元之間的連接組成。

這些連接不是由人類程式設計師設定的,相反,神經網絡本質上是通過在大量數據中尋找模式來進行編程。因此,雖然你可以測試一個神經網絡在照片中檢測到貓的效果,但要判斷出它們的存在與否,你很難辨明它們的視覺模式。

「當涉及到照片中貓的檢測時,這並不是什麼大問題,但這項技術正在悄然進入一些領域,在這些領域,能夠解釋這些決定可能很重要。」

說到檢測到貓的存在,這並不是什麼大問題,但這項技術正在悄然進入一些領域,在這些領域中,能夠解釋這些決策可能很重要,比如金融交易和疾病診斷。這導致了越來越多的研究試圖讓這些算法的決策能解釋得更清楚。

本月上旬,麻省理工學院的工程師們公布了一項技術,該技術有望提供關於任何自然語言處理網絡的洞察和分析,而不管其背後的軟體是什麼。這是因為它的工作原理是簡單地把輸入轉換成算法,並測量對輸出的影響。

該研究小組利用他們自己的神經網絡,對自然句子進行壓縮和解壓,得出與之相關的句子,然後將這些句子輸入到被訪問的神經網絡中。通過分析輸入的細微變化如何改變輸出,研究人員能夠發現網絡對特定詞彙和短語的反應。

他們進行的一項測試是在微軟Azure雲服務的一項翻譯服務上進行的。法語有不同的名詞形式,這些名詞形式取決於主語的性別。例如,男舞者是「danseur」,而女性舞者則是「danseuse」。

研究人員發現,在包含諸如博士、教授等職業的句子中,這種模型容易表現出男性化的傾向,比如聰明的或有天賦的,而在模型表現成女性化的形式時,則傾向於迷人的或者富有同情心的主體,比如舞者或護士。

這種性別傾向很難通過簡單地搜索翻譯服務的神經網絡架構來發現,但其影響可能是潛在的。能夠發現這種傾向是促使神經網絡更容易解釋的關鍵因素,但它也可以幫助研究人員排除那些導致錯誤的假設,從而提高他們的表現。

麻省理工學院的這一研究也遵循了華盛頓大學的類似研究,該研究也使用了輸入的變量來觀察模型的預測行為。它解決了分類算法更簡單的問題,但它也可以通過突出顯示圖像的某些部分來進行預測,從而在圖像處理算法方面發揮作用。

英偉達提出了一種更簡單的方法,可以在處理自動駕駛汽車的PilotNet系統所使用的視頻時實現同樣的效果。通過把網絡的更高層次的輸出疊加到下層上,他們就能創建一個「可視化的面具」,突出顯示網絡認為重要的實時視頻消息流的功能。

更進一步的話,一些研究人員試圖創造出人工智慧來解釋它的決定,而不僅僅是專家來進行解釋。來自美國和德國的研究人員最近公布了一種算法,該算法不僅可以分析圖片,回答「哪種運動正在播放」等問題,還可以用「棒球員手握球棒」這樣的短語來回答「棒球」這樣的問題。

Mark Riedl是位於亞特蘭大的喬治亞理工學院娛樂情報實驗室的主任,他讓一些人玩了電腦遊戲「青蛙」,並在他們玩的過程中解釋他們的策略。他將這些數據與描述遊戲狀態的代碼一起記錄下來,然後在這兩種情況下訓練了一個神經網絡。當他把這個網絡連接到另一個設計遊戲的網絡時,他創造了一個人工智慧,使其可以在玩遊戲的過程中合理化自己的行為。

雖然對可解釋的人工智慧研究還處於初級階段,但歐盟最近的一項指令可能會給該領域的研究增添一種緊迫感。定於明年生效的通用數據保護條例(GDPR)將有效地創造一種「解釋權」,使公民能夠要求做出關於算法決策背後的邏輯。

正如埃森哲的分析師在一篇博客文章中指出的那樣,關於這種新權利的程度存在爭議,但他們仍然建議企業接受可解釋的人工智慧,以便在未來證明自己的企業不受監管機構的影響。

這一領域也可能會有大筆資金投入。金融巨頭Capital One正在研究如何讓機器學習算法來解釋他們的決策,美國國防高級研究計劃局(DARPA)正在資助13個致力於解決這個問題的研究小組。這其中包括來自俄勒岡州立大學的一個小組,他們計劃用第二個神經網絡來分析神經網絡,以確定神經活動對特定決策的影響。

但谷歌的研究主管Peter Norvig最近質疑這些方法最終會有多大用處。他說,即使有了人類,認知心理學家也發現,當你讓別人解釋他們的決定時,他們通常會以可能與實際決策過程無關的方式來理解他們的行為。他在雪梨的一次活動上說:「因此,我們可能會在機器學習領域處於同一個位置,在這個階段我們訓練一個系統來獲得答案,考慮到第一個系統的輸入,然後我們才會訓練另一個系統,現在你的工作就是做出解釋。」

相反,他說,隨著時間的推移,研究這些算法的輸出可能會更有用,以識別偏差和錯誤。那麼,問題是這是誰的責任:是過度擴張的公共機構、還是學術機構或企業,在保護其人工智慧能力的聲譽方面擁有既得利益。

在現實中,這可能需要兩者的結合。人工智慧開發者需要找到方法來解釋他們的創意所做出的決定,但我們不能只接受他們的說法。還需要對這些決定如何影響人們的生活進行密切的觀察。(選自:singularity hub 編譯:網易見外智能編譯平臺 審校:Simone)

相關焦點

  • 把人做決策換成算法決策就公平了嗎?不見得
    (即使已經註明),並且在實際操作中可能也不願去推翻算法的決定(即便這在技術上是完全可行的)與其只關注這些不置可否的選擇,不如好好考慮如何將人類和機器的優勢相結合,以便創造出更好的、偏見更少的決策工具。中承認,「算法革命」的批評者是在擔心「算法在運用時會不透明、帶有偏見,成為無法解釋的工具」,但他在自己的文章中卻只提到了「偏見」,而忽略了「不透明」和「無法解釋」(以及它們和「偏見」之間的化學反應)。
  • 機器學習吧面向ai的中文機器學習資源與分享平臺
    如果你對這個感興趣的話至少學習如何抓取的知識。機器學習吧,機器學習吧-面向ai的中文機器學習資源與分享平臺。裡面涵蓋了比較新的機器學習算法,可以看看。當然這僅僅是入門級的機器學習算法,下面會引入深度學習算法的文章。並且機器學習算法的理論比深度學習算法更加複雜,這裡有深度學習算法的專題篇。不管從什麼角度看,機器學習都是一個非常好的方向,希望你對機器學習有更多的了解。
  • 機器之心專訪吳恩達,深度學習課程項目Deeplearning.ai正式發布
    作者 | Tony Peng、李澤南編者按:6 月 23 日,吳恩達通過 Twitter 宣布自己離職百度之後的新一步動向——Deeplearning.ai,並宣稱將在 8 月份公布有關 Deeplearning.ai 的更多細節。今日,機器之心獲得消息,Deeplearning.ai 項目正式發布。
  • 長文分享:AI算法工程師煉成之路
    作者回顧了自己成長為一名算法工程師,並分享了入門機器學習的經驗,以及學習資源。這是一篇關於如何成為一名AI算法工程師的長文。作者回顧了自己成長為一名算法工程師,進行了經驗總結。但是自從入了機器學習的坑後,筆記寫的飛起~機器學習的框架按照數據集有沒有Y值可以將機器學習分為監督學習、半監督學習和無監督學習。監督學習是分類算法,無監督學習是聚類算法。
  • 打開人工智慧黑箱:看最新16篇可解釋深度學習文章,帶您了解增強AI透明性
    而可解釋性AI在關於人類的很多應用方面是必需的,如醫療診斷、教育學習、政府決策等等。最近,關於深度學習的可解釋性,學者們做了大量的研究工作,專知整理關於深度學習可解釋性的最新一些文章,希望能給讀者提供一些參考和幫助。
  • AI/機器學習2018年度進展綜述
    雖然我不認為強化學習的研究進展像前幾年那樣令人印象深刻(我只想到DeepMind最近的Impala的工作),但令人驚訝的是,在一年時間裡,我們看到所有主要人工智慧廠家都發布了強化學習框架。谷歌發布了Dopamine框架用於研究,而Deepmind(也在谷歌內部)發布了某種程度上與之競爭的TRFL框架。
  • 深度強化學習算法與應用研究現狀綜述
    深度強化學習主要被用來處理感知-決策問題,已經成為人工智慧領域重要的研究分支。
  • 10頁MIT可解釋機器學習最新論文
    該領域解決了複雜機器和算法常常不能為它們的行為和思考過程提供理解的問題。XAI使得用戶和內部系統的部分更加透明,為它們的決策提供一定粒度的解釋。本文介紹MIT的關於可解釋性機器學習的最新論文《Explaining Explanations: An Overview of Interpretability of Machine Learning》。
  • 七個關鍵因素:如何選擇出優秀機器學習算法?
    任意的機器學習問題都可以應用多種算法,生成多種模型。例如,垃圾郵件檢測分類問題可以使用多種模型來解決,包括樸素貝葉斯模型、邏輯回歸模型和像BiLSTMs這樣的深度學習技術。擁有豐富的選擇是好的,但難點在於,如何決定在生產中實現哪個模型。
  • 常用機器學習算法的目前主要有深度學習領域的各種模型及框架
    然而,人工智慧人才的培養發展至今,人工智慧人才培養已成為一條產業鏈,僅僅把人工智慧定義為算法工程師的名稱未免太偏頗。當前,ai人才的招聘主要分為兩大類:計算機系統方向人才和算法方向人才。初期培養的人工智慧人才多數是計算機系統方向的,這是相對而言最好的情況。因為計算機系統的人才可以參與到ai算法的具體實現工作中,從而在不遠的將來實現對ai算法的自主化升級。
  • 10本關於機器學習(AI)的必讀書籍
    在線訪問:https://artint.info/2e/html/ArtInt2e.html關於這本書:這本書通過使用一個一致的框架介紹AI來研究智能計算代理的設計,這本書展示了基本方法是如何適合多維設計空間的,因此您可以學習基礎知識,而又不會錯過更大的視野。作者簡介:David L.
  • 10 個常用機器學習算法
    (給算法愛好者加星標,修煉編程內功)來源:機器之心   本文介紹了 10 大常用機器學習算法,包括線性回歸、Logistic
  • 【算法】決策樹與ID3算法
    小編邀請您,先思考:1 如何構建決策樹?
  • 《機器學習-原理、算法與應用》出版了
    SIGAI微信公眾號自去年4月份發布第一篇文章「機器學習-波瀾壯闊40年」起,到今天為止,已經累計發布文章164篇,在各個平臺的閱讀次數超過超過300萬次,深受人工智慧學習者和從業者的喜愛,其中不乏大量的精品文章。此公眾號創立之初的目的是為了幫助大家學習和掌握人工智慧技術,用於學術研究和產品研發,傳播人工智慧技術。
  • AI黑箱怎麼破?神經網絡算法使機器學習透明化
    AI 領域的下一個大事件並不是教會 AI 完成某項任務,而是讓機器向人們解釋為什麼它們做出了某項決策。比方說,一個機器人決定走一條特定路線去倉庫,又比如,一輛無人駕駛汽車決定向左或向右轉。我們怎麼知道 AI 為什麼做出這些決定?卡內基梅隆大學計算機科學教授 Manuela Veloso 是研究協作機器人的專家。
  • 詳解決策樹 C4.5 算法
    決策樹(decision tree)算法基於特徵屬性進行分類,其主要的優點:模型具有可讀性,計算量小,分類速度快。決策樹學習決策樹學習的本質是從訓練數據集中歸納出一組分類規則[2]。但隨著分裂屬性次序的不同,所得到的決策樹也會不同。
  • 算法之「算法」:所有機器學習算法都可以表示為神經網絡
    但是眾所周知,神經網絡是算法的算法及機器學習的巔峰。我們可以說,神經網絡是對機器學習的普遍概括,而不是僅僅一次嘗試。與其說神經網絡是簡單的算法,不如說是框架和概念,這是顯而易見的,因為在構建神經網絡時有很大的自由度——比如對於隱藏層&節點個數、激活函數、優化器、損失函數、網絡類型(卷積神經網絡、循環神經網絡等)以及特殊層(批歸一化、隨機失活等)。
  • 致研究者:2018 AI 研究趨勢
    本文略有不同,Alex Honchar在Medium發文,從研究者的角度分享機器學習明年發展的走向。本文的預測基於 2012 年以來我關注的學術界和科技巨頭實驗室的研究思路演變。我所選擇的領域,從我的觀點來看,都多多少少尚處於發展的初級階段,但是已經為研究做足了準備,且在 2018 年可能獲得良好的結果,並在 2019-2020 年能投入實際應用。請閱讀吧!
  • 如何構建基於機器學習的入侵檢測系統
    因此機器學習在信息安全也正扮演著日益重要的角色。通過本文 peerlyst 的讀者不但能探索機器學習技術的基本原理還能進一步親手體驗如何從零開始,通過前沿技術,代碼庫和能公開獲取的數據集來構建一個真實的入侵檢測系統。我們也提供了有用的附件來幫助你更方便的選擇機器學習的算法。
  • AI產品經理必懂算法:決策樹
    先上定義,決策樹(Decision Tree),又稱判斷樹,它是一種以樹形數據結構來展示決策規則和分類結果的模型,作為一種歸納學習算法,其重點是將看似無序、雜亂的已知實例,通過某種技術手段將它們轉化成可以預測未知實例的樹狀模型,每一條從根結點(對最終分類結果貢獻最大的屬性)到葉子結點(最終分類結果)的路徑都代表一條決策的規則。