AI黑箱怎麼破?神經網絡算法使機器學習透明化

2021-01-10 網易科技

編者按:人們可以訓練人工智慧 (AI)和機器人完成任務,但整個過程在黑箱中運作。我們並不知道AI和機器人是如何決策的。一家名為OptimizingMind的初創公司想要解決這個問題。這篇文章將講述該公司對建立透明 AI 決策過程的願景和大膽嘗試。本文發表於 TechRepublic,作者 Hope Reese,原標題《 Transparent machine learning: How to create 'clear-box' AI》。未經許可,不得轉載。

AI 領域的下一個大事件並不是教會 AI 完成某項任務,而是讓機器向人們解釋為什麼它們做出了某項決策。比方說,一個機器人決定走一條特定路線去倉庫,又比如,一輛無人駕駛汽車決定向左或向右轉。我們怎麼知道 AI 為什麼做出這些決定?

卡內基梅隆大學計算機科學教授 Manuela Veloso 是研究協作機器人的專家。他表示,能解釋自身行為的 AI 對贏得大眾對人工智慧的信任至關重要。「我們需要質疑為什麼算法程序會做出這樣那樣的決定,如果我們不在 AI 動機解釋上花功夫,就無法信任這個智能系統。」

為解決該問題, 創業公司 OptimizingMind 發明了一項能觀察智能機器決策過程的技術。

這個算法的目的是創造 「透明訪問」系統,以呈現機器學習是如何做出預期(expectations)的。OptimizingMind 的負責人 Tsvi Achler 說:

「該系統以人腦的神經模型為基礎,能把任何深度網絡 (deep networks)轉化為該系統的模式。它的目的是探索 AI 行為的潛在預期 (underlying expectations),並且找出 AI 思維模式的哪個方面對決策影響最大」。

有著神經科學、醫藥和計算機科學多重學科背景的 Achler 認為,我們能從人腦如何作出和解釋決策中學習到很多(應用到 AI 的知識)。

「我感興趣的是,大腦和計算機的共同點在哪裡?為什麼人腦可以在學會任何模型之後把它解釋出來。如果我說 『章魚』,你是否能告訴我那是什麼?如果我問章魚觸手長什麼樣,你能告訴我嗎?」

人能做到,AI 為什麼不行?

他說,當人類觀察到一個新模式(或規律)的時候,會立刻學會那個模式。這對 AI 暫時還不可能。 AI 的學習方法被稱為批量學習。如果你想要對 AI 加入一個新模式或者新註解,你必須從頭開始把所有的新舊模式重新教一遍。

Achler 開發的算法呈現出神經科學裡的 「爆裂」 現象。當人觀察到一個新模式時,多個神經元被同時激發,然後它們沉寂下來。當你向某人展示一個模式的時候,下一瞬間會發生神經興奮,之後逐漸地平靜下來。在這個算法裡你會看到同樣的事情。

實際上,這種研究方式是對傳統機器學習進行了重新思考,Achler 認為該過程就像深度學習、感知器、支持向量機(SVM) 、 卷積神經網絡(CNN)、遞歸神經網絡(RNN)、反向傳播等研究一樣。研究者們並沒有打算解決即時學習這一難題。 「這項技術的目的非常明確,那就是嘗試解釋 AI 是怎樣思考的。沒有人想過如何讓系統變得更靈活或是更具可信度,而它的整體目標是讓 AI 決策更容易被訪問。」

OptimizingMind 是一種以人腦運行方式為基礎的算法,旨在使開發者能「觀察到系統內部,理解它們(AI 系統)在幹什麼,並且很方便地編輯它們,而無需從頭開始訓練」。這能讓機器學習「一步到位」,而神經網絡馬上就能學會。舉例來說,人們能告訴 Siri 某一個詞的定義,然後它會被存儲起來。今天神經網絡還達不到這一點,它們需要用無數案例不斷訓練學習。

所以 「透明訪問」系統是什麼意思呢?根據  Achler 的說法, 這個系統提供了一種實時觀察 AI 決策的方法。 它可以訪問權重、特點和節點,提供能讀取這些信息的靈活性,並且能改寫它們。最終,這個系統能讓我們理解神經網絡是怎麼做出一個決策的。這個工具能幫助工程師們大幅減少機器開發的時間,幫企業節省資源。

此外 Achler 還表示,在提供透明度之外,這個算法還可以被修改。不但預期(expectations)能被表達出來,每個單獨預期還能隨著新信息立刻改變。

今天,大多數機器學習的方法使用一個正反饋(feedforward)技術。風險投資公司 Naiss.io 的聯合創始人 Ed Fernandez 說,正反饋使用優化過的權重執行任務。在正反饋系統裡,獨特性信息( uniqueness information)依據訓練中出現的頻率被錄入權重。這意味著整套訓練中的權重必須經過優化。這又意味著 OptimizingMind 可以「根據正在被識別的模式執行優化」,這不是為了權重而優化,而是為了模式識別去優化。

當機器學習與商業更緊密結合,並成為無人駕駛和其他極其重要科技的基石,理解機器學習中到底發生了什麼就變得至關重要。事實上, DARPA 最近啟動了一項對可解釋 AI (XAI,explainable artificial intelligence) 的投資。

正如 Veloso 教授說的:「我們不能假定 AI 系統完美無缺。」我們必須從 AI 的錯誤中學習。Veloso 表示,「如果某天發生了一起 AI 事故,我們必須避免它再次發生。」

via techrepublic

本文來源:雷鋒網 責任編輯: 丁廣勝_NT1941

相關焦點

  • 算法的算法:人工神經網絡
    從Logistic回歸到支持向量機,算法層出不窮,毫不誇張的說,神經網絡成為算法的算法,為機器學習的頂峰。它也從最初不斷嘗試中成為機器學習的通用表達形式。由此,可以將神經網絡從一個固定算法展拓到一個通用觀念,並得到如下有趣的推文:任何機器學習算法,無論是決策樹還是k近鄰,都可以使用神經網絡來表示。這個概念可以通過下面的一些舉例得到驗證,同樣也可以使用數據進行嚴格的證明。
  • 打開人工智慧黑箱:看最新16篇可解釋深度學習文章,帶您了解增強AI透明性
    比如圖像識別的任務,現在的模型通過卷積神經網絡會識別出這是一隻貓。圖神經網絡Deep Learning on Graphs: A Survey. Ziwei Zhang,Peng Cui,Wenwu Zhuhttp://www.zhuanzhi.ai/paper/abe85f14a3697712fd1c3d0c3b5ddcb0
  • 數據風險、算法黑箱怎麼破?這家創企用AI化解安全難題
    要讓每個決策具備極高的可靠性,更進一步是算法攻防安全。算法普遍存在的「對抗樣本」特徵,導致AI系統存在被惡意攻擊的風險。基於對抗樣本技術,黑客可繞過整個網絡和系統安全防禦機制,僅通過簡單偽裝,就從AI算法引起的新漏洞讓應用出錯。
  • 27 張 AI 超全速查表,神經網絡、機器學習、數據可視化一應俱全(附完整 pdf)
    在機器學習、深度學習研究中,優秀的參考資料和手冊往往能夠助我們事半功倍!今天小編給大家整理了 27 張非常全面的 AI 速查表,以便供大家平時查詢所用!這 27 張速查表內容非常全面,涉及神經網絡、機器學習、深度學習、Python 及其開源庫、數據可視化等。下面,我們分別來詳細介紹。1. 神經網絡基礎
  • 機器學習算法匯總:人工神經網絡、深度學習及其它
    算法類似性根據算法的功能和形式的類似性,我們可以把算法分類,比如說基於樹的算法,基於神經網絡的算法等等。當然,機器學習的範圍非常龐大,有些算法很難明確歸類到某一類。而對於有些分類來說,同一分類的算法可以針對不同類型的問題。這裡,我們儘量把常用的算法按照最容易理解的方式進行分類。
  • AI Cheat Sheet 人工智慧、神經網絡、機器學習、深度學習和大數據領域覆蓋最全的一份速查表
    機器學習:Scikit-learn算法這個部分展示了Scikit-learn中每個算法的適用範圍及優缺點,可以幫你快速找到解決問題的方法。Scikit-learnScikit-learn(以前稱為scikits.learn)是機器學習庫。 它具有各種分類,回歸和聚類算法,包括支持向量機,隨機森林,梯度增強,k-means和DBSCAN等。
  • 資源│機器學習、深度學習、算法工程師等 AI 相關崗位面試需要知識
    資料圖解李金洪的《深度學習之TensorFlow 入門、原理與進階實戰》深度神經網絡實戰技巧深度學習從入門到進階的 12 個經典問題及解答計算機視覺知識點總結https://zhuanlan.zhihu.com/p/58776542圖解人工智慧https://okai.brown.edu
  • 高清圖解:神經網絡、機器學習、數據科學一網打盡|附PDF
    來源:becominghuman.ai  編輯:元子  【新智元導讀】完全圖解人工智慧、NLP、機器學習、深度學習、大數據!  今天,新智元要為大家推薦一個超實用、顏值超高的神經網絡+機器學習+數據科學和Python的完全圖解,文末附有高清PDF版連結,支持下載、列印,推薦大家可以做成滑鼠墊、桌布,或者印成手冊等隨手攜帶,隨時翻看。
  • Google聯合OpenAI揭秘神經網絡黑箱:AI的智慧,都藏在「激活地圖」裡
    現在,Google和OpenAI的一場合作,以圖像分類神經網絡為例,我們揭開了神經網絡黑箱的一角。他們說,圖像分類神經網絡裡面長這樣:這不是狗頭,是一系列激活地圖(Activation Atlas)中的一張,通俗的說,就是神經網絡在學習圖像分類之後,在內心把所有學過的物品畫了一幅思維地圖,把長得像的東西放在了一起,以此作為依據,判斷之後所有的它看到的圖片是什麼。
  • 【讓調參全部自動化】自動機器學習,神經網絡自主編程(代碼與訣竅)
    KDnuggets 的主編 Matthew Mayo 寫了一篇文章介紹了 AutoML 的概念,以及為什麼要做自動機器學習。本文後附 AI 軟體工程師 Thibault Neveu 發表在 Medium 的文章,介紹他如何訓練神經網絡自動編程。在過去幾年,自動機器學習(AutoML)成了一個研究的熱點。
  • 36氪首發|針對稀疏化神經網絡開發高算力AI晶片,「Moffett AI」獲...
    公司目標是通過優化計算模式,支持全面稀疏化神經網絡開發,提供超高算力、超低功耗的通用AI計算平臺。公司CEO王維認為,當前AI晶片架構應該是基於硬體+軟體+算法一體化且根據算法的發展趨勢來設計,這是相對於目前基於密集矩陣計算的TPU, NPU, xPU等AI晶片來說的。
  • 二次元少女生成器、會開車的神經網絡...2019年最好的17個機器學習項目
    地址:https://waifulabs.com/作者整理了一個機器學習數據集相關的列表集合,可用於機器學習實驗。然後用一個可以學習的神經描述編碼擴展每個點。局部幾何形狀和外觀利用神經描述編碼,通過將點雲的柵格化從新的視點通過深度渲染網絡來獲得新的場景視圖。論文地址:https://arxiv.org/abs/1906.08240
  • 膠囊神經網絡研究現狀與未來的淺析
    介紹了卷積神經網絡的經典模型和深度學習中新型神經網絡模型——膠囊網絡以及其動態路由算法,並對比了二者的優劣性。對膠囊網絡的應用給予綜述,以圖像和文本兩方面來闡述膠囊網絡的應用領域和優勢所在。最後進行概括總結,並展望了膠囊網絡可能的改進方向。
  • 萬象智慧|機器學習分類算法介紹(一)
    很多人在平時的工作中都或多或少會用到機器學習的算法。這裡中誠信徵信數據分析團隊-追AI騎士為您歸納整理一下常見的機器學習分類算法,以供您在工作和學習中參考。機器學習本質上就是一種對問題真實模型的逼近。其中有監督的分類算法在眾多的業務場景得到了非常廣泛的應用,如:根據個人的學歷、性別、年齡等信息判斷用戶是否會違約等。
  • AI|神經架構搜索(NAS)簡要介紹
    NAS的意義在於解決深度學習模型的調參問題,是結合了優化和機器學習的交叉研究。在深度學習之前,傳統的機器學習模型也會遇到模型的調參問題,因為淺層模型結構相對簡單,因此多數研究都將模型的結構統一為超參數來進行搜索,比如三層神經網絡中隱層神經元的個數。
  • 機器學習正遭遇「可重複性危機」,或已成「鍊金術」?
    雷鋒網 AI 科技評論按:機器學習以其特有的優勢逐漸在科學研究中得到大量應用,然而,其內在的「黑箱」特點也帶來了一系列問題,有研究者認為正是機器學習的這種不可解釋性導致了當下科學研究的「可重複性危機」——如果科學不可重複,那我們是否還能稱之為真正的科學嗎?與此同時,更有研究者聲稱機器學習已經成為一種「鍊金術」。
  • 淺談機器學習分類算法
    目前隨著人工智慧的發展,機器學習的應用領域日益寬泛,各種機器學習適應不同的應用場景,而機器學習差別的關鍵點之一就在於所使用算法的不同,
  • 神經網絡與深度學習
    至於在這個過程中我們碰到的各種各樣的問題,比如數據質量、模型評價標準、訓練優化方法、過擬合等一系列關乎機器學習模型生死的問題,在這裡不做具體展開,大家可以去補習相關的機器學習知識。在機器學習中,有很多相當成熟的模型和算法。其中有一種很厲害的模型,那就是人工神經網絡。
  • 機器學習系列 | ML需要了解的十大神經網絡架構
    (Neural Networks)是機器學習的一種模型算法。如果你曾學習過機器學習的課程,那麼你應該也接觸過神經網絡。神經網絡是一組特定的算法,它引起了機器學習領域的徹底性的變革。神經網絡啟發於生物神經網絡,當前我們所說的深度神經網絡已被證明十分有用。神經網絡本身就是一般的函數逼近,這也是為什麼他們能被運用於幾乎任何一個關於從輸入到輸出空間的複雜映射的機器學習問題中。
  • 人工智慧發展史,機器學習/神經網絡與其關係
    怎麼實現人工智慧是一個非常廣袤的問題。人工智慧的發展主要經歷過 3 種階段,每個階段都代表了人類從不同的角度嘗試實現人工智慧的探索足跡。最早期人類試圖通過總結、歸納出一些邏輯規則,並將邏輯規則以電腦程式的方式來開發智能系統。但是這種顯式的規則往往過於簡單,很難表達複雜、抽象的規則。