Nature子刊批人工神經網絡:先天結構比後天訓練更重要

2020-12-06 澎湃新聞

關注前沿科技 量子位 邊策 安妮 發自 凹非寺

量子位 出品 | 公眾號 QbitAI

人工神經網絡可以從動物大腦中學到什麼?

最新一期Nature子刊上,就刊登了這樣一篇文章。美國冷泉港實驗室的神經科學家Anthony M. Zador,對當下人工神經網絡的研究思路進行了深刻反思與批判:

大多數動物行為不是通過監督或者無監督算法就能模擬的。

具體來說,動物天生具備高度結構化的大腦連接,使它們能夠快速學習。從出生下時的神經結構就決定了動物具有哪些技能,再通過後天學習變得更加強大。

由於連接過於複雜無法在基因組中明確指定,因此必須通過「基因瓶頸」進行壓縮。但人工神經網絡還不具備這種能力。

但這也表明,AI有潛力通過類似的方式快速學習。

也就是說,通過反思當前的研究方式能夠發現,我們現在關於深度學習的研究從出發點的側重似乎就搞錯了,先天架構比後天訓練重要得多。

這個結論一出現,就在推特上引發了巨大的反響,不到一天,點讚數超過了1.8K,各大論壇上也少不了各種討論。不少網友表示,文章讓人有一種醍醐灌頂的感覺。

一研究者表示,很喜歡這篇文章,尤其是其中具體說明了進化與學習之間的生物學差異,以及在深度學習中能借鑑的思路見解。

機器學習研究者、fixr.com網站的CEO Andres Torrubia表示,這個研究不禁讓人想到權重無關的人工神經網絡,接下來的重點是如何在「遺傳瓶頸」中進行編碼了。

還有研究人員提出了新思路,猜測基因瓶頸與今年ICLR 2019的最佳論文「彩票假設」理論中得到的簡化表示之間有相似之處。

是項怎樣的研究,讓AIer的思路一下子如此開闊?

先天的重要性

機器能在多長時間內取代人類的工作?1956年,AI先驅Herbert Simon曾預言,機器能夠在二十年內完成人類可以做的任何工作。

雖然這個預測離AI的發展軌道偏離了太遠,但那時已經有了類似通用人工智慧(AGI)的概念。

今天的科技界這種樂觀情緒再次高漲,主要源於人工神經網絡和機器學習的進展,但離設想的達到人類智慧的水平還很遠。

人工神經網絡可以在西洋棋和圍棋等遊戲中擊敗人類對手,但在大多數方面,比如語言、推理、常識等,還無法接近四歲兒童的認知能力。

也許更引人注目的是人工神經網絡更接近於接近簡單動物的能力。用人工智慧的先驅之一Hans Moravec的話說:

人腦中高度發達的感知與運動部分的編碼,是從生物界十億年的進化經驗中學到的。我們稱之為「推理」的深思熟慮的過程,是人類思維能力中最薄弱的一個,因為依靠無意識的感知運動的支持才能生效。

與人工智慧網絡相比,動物嚴重依賴於後天學習與先天機制的融合。這些先天機制通過進化產生,在基因組中完成了編碼,並採取一定規則連接大腦。

所以,基因瓶頸(genomic bottleneck)了解一下?

在這篇文章中,研究人員引入了這個概念,具體來說,是指壓縮到基因組中的任何先天行為都是進化過程帶來的,這是連接到大腦規則的一種約束。

而下一代機器學習的算法的突破點,很有可能就在基因瓶頸上。

而這,也是當前機器學習算法與人類思維方式最大差別。 算力促進神經網絡發展

在AI的早期階段,有符號主義和連接主義兩種主義之爭。

Marvin Minsky等人支持的符號主義認為,應該由程式設計師來編寫AI系統運行的算法。而連接主義認為,在人工神經網絡方法中,系統可以從數據中學習。

符號主義可以視為心理學家的方法,它從人類認知處理中獲取靈感,而不是像連接主義那樣試圖打開黑匣子,使用神經元組成的人工神經網絡,從神經科學中獲取靈感。

符號主義是是20世紀60~80年代人工智慧的主導方法,但從之後被連接主義的的人工神經網絡方法所取代。

但是現代人工神經網絡與三十年前的仍然十分相似。神經網絡大部分進步可以歸因於計算機算力的增加。

僅僅因為摩爾定律,今天的計算機速度比當年快了幾個數量級,並且GPU加快了人工神經網絡的速度。

大數據集的可用性是神經網絡快速發展的第二個原因:收集用於訓練的大量標記圖像數據集,在谷歌出現之前是非常困難的。

最後,第三個原因是現代人工神經網絡比之前只需要更少的人為幹預。現代人工神經網絡,特別是「深度網絡」 可以從數據中學習適當的低級表示(例如視覺特徵),而不是依靠手工編程。

在神經網絡的研究中,術語「學習」的意義與神經科學和心理學不同。在人工神經網絡中,學習是指從輸入數據中提取結構統計規律的過程,並將該結構編碼為網絡參數。這些網絡參數包含指定網絡所需的所有信息。

例如,一個完全連接的由N個神經元組成的網絡,每個神經元都有一個相關聯的參數,以及另外N2個參數來指定神經元突觸的連接強度,總共有N+N2個自由參數。當神經元的數量N很大時,完全連接的神經網絡參數為O(N+N2)。

從數據中提取結構,並將該結構編碼為網絡參數(即權重和閾值),有三種經典範例。

在監督學習中,數據由輸入項(例如,圖像)和標籤(例如,單詞「長頸鹿」)成對組成,目標是找到為新的一對數據生成正確標籤的網絡參數。

在無監督學習中,數據沒有標籤,目標是發現數據中的統計規律,而沒有明確指導查找的規則。例如,如果有足夠的長頸鹿和大象的圖片,最終神經網絡可能會推斷出兩類動物的存在,而不需要明確標記它們。

最後,在強化學習中,數據用於驅動動作,並且這些動作的成功與否是基於「獎勵」信號來評估的。

人工神經網絡的許多進步都是為監督學習開發更好的工具。監督學習的一個主要考慮因素是「泛化」。隨著參數數量的增加,網絡的「表現力」 ,即網絡可以處理的輸入輸出映射的複雜性也隨之增加。

有足夠的自由參數的網絡可以擬合任何函數。但是,在沒有過擬合的情況下,訓練網絡所需的數據量通常也會隨著參數的數量而變化。如果網絡具有太多的自由參數,則網絡存在過擬合的風險。

在人工神經網絡研究中,網絡的靈活性與訓練網絡所需的數據量之間的這種差異稱為「偏差 - 方差權衡」。

具有更大靈活性的網絡更強,但如果沒有足夠的訓練數據,網絡對測試數據的預測可能會非常不正確,甚至遠比簡單且功能較弱的網絡的預測結果差。

用「蜘蛛俠」 的話來說就是:能力越大責任越大。偏差-方差權衡解釋了為什麼大型網絡需要大量標記的訓練數據。

比如一組數2、4、6、8,下一個數字什麼,人會很自然的想到10,但是如果我們使用有4個參數的多項式來擬合,神經網絡會告訴我們結果是42。

三巨頭如何看待監督學習

神經科學和心理學中的「學習」一詞指的是經驗導致的長期行為改變。在這種情況下,學習包括動物的行為,例如經典的自發行為以及通過觀察或指導學習獲得的知識。

儘管神經科學和人工神經網絡術語的「學習」存在一些重疊,但在某些情況下,這些術語的差異足以導致混淆。

也許它們之間最大的差異是術語「監督學習」的應用。

監督學習是允許神經網絡準確地對圖像進行分類的範例。但是,為了確保泛化性能,訓練此類網絡需要大量數據集。一個視覺查詢系統的訓練需要107個標註樣本。這種訓練的最終結果是人工神經網絡至少表面上具有模仿人類分類圖像的能力,但人工系統學習的過程與新生兒學習的過程幾乎沒有相似之處。

一年的時間大約107秒,所以要按照這種方法訓練孩子,需要不吃不喝不睡覺每一秒都問一個問題,以獲得相同數量的標記數據。然而,孩子遇到的大多數圖像都沒有標註。

因此,可用的標記數據集與兒童學習的速度之間存在著不匹配。顯然,兒童並不是主要依靠監督算法來學習對象進行分類。

諸如此類的因素促使人們在機器學習中尋找更強大的學習算法,讓AI像孩子一樣在幾年內掌握駕馭世界的能力。

機器學習領域的許多人,包括三巨頭中的Yann Lecun和Geoff Hinton等先驅都認為,我們主要依靠無監督算法而不是監督算法,來學習構建世界表徵的範例。

用Yann Lecun的話說:

「如果智能是一塊蛋糕,那麼大部分蛋糕都是無監督學習,蛋糕上的花就是監督學習,蛋糕上的櫻桃就是強化學習。」

由於無監督算法不需要標記數據,因此它們可能會利用我們收到的大量原始未標記的感知數據。實際上,有幾種無監督算法產生的表示讓人聯想到那些在視覺系統中發現的表示。

雖然目前這些無監督算法不能像監督算法那樣有效地生成視覺表示,但是沒有已知的理論原則或界限排除這種算法的存在。

儘管學習算法的無自由午餐定理指出不存在完全通用的學習算法,在某種意義上說,對於每個學習模型,都存在一個數據分布很差的情況。

每個學習模型必須包含對其可以學習的函數類的隱式或顯式限制。因此,雖然孩子在他剛生下來一年內遇到帶標註的圖像數據很少,但他在那段時間內收到的總感官輸入量非常大。

也許大自然已經發展出一種強大的無監督算法來利用這一龐大的資料庫。發現這種無監督算法,如果它存在的話,那將為下一代人工神經網絡奠定基礎。 從動物的學習方式中學習

學習行為和天生行為的區別在哪?

核心需要解決的問題是,動物如何在出生後迅速學習,也不需要大量訓練數據加持。

和動物相比,人類是一個例外:成熟的時間比其他動物都要長。松鼠可以在出生後的幾個月內從一棵樹跳到另一棵樹,小馬可以在幾小時內學會走路,小蜘蛛一出生就可以爬行。

這樣的例子表明,即使是最厲害的無監督算法,也會面臨實際案例上的挑戰。

因此,如果無監督機制無法解釋動物如何在出生時和不久之後就具有如此的領悟能力,那麼對於機器來說,是否有替代方案?但事實是,許多人類感官表達和行為基本上是天生的。

從進化角度來看,天生的行為對生存和學習是有利的,而先天與學習策略之間的進化權衡也很有意思。

可以看出,通過純先天學習機制而成熟,與通過額外學習的表現有很大不同。

如果環境迅速變化,從時間角度來看,在其他條件相同的情況下,強烈依賴先天機制的物種將勝過採用混合策略的物種。 基因制定人腦神經網絡的布線規則

我們認為動物在出生後如此快速運作的主要原因是,它們嚴重依賴於先天機制。這些先天機制已經寫在了在基因編碼裡。基因編碼蘊含了神經系統的布線規則,這些規則已經被數億年的進化所選擇,也為動物一生中的學習提供了框架。

那麼基因是如何說明布線規則的呢?在一些簡單的生物體中,基因組具有指定每個神經元連接的能力。以簡單的線蟲為例,它有302個神經元和大約7000個突觸。因此在極端情況下,基因可以編碼方式精確地指定神經迴路的連接。

但是在較大型動物的大腦中,例如哺乳動物的大腦,突觸連接不能如此精確地被基因指定,因為基因根本沒有足夠的能力明確指定每個連接。

人類基因組大約有3×109個核苷酸,因此它可以編碼不超過1GB的信息但是人類大腦每個神經元的神經元數量大約為1011神經元,需要3.7×1015bits來制定所有連接。

即使人類基因組的每個核苷酸都用於制定大腦連接,信息容量比神經元連接少6個數量級。

因此在大型和稀疏連接的大腦中,大多數信息可能需要指定連接矩陣的非零元素的位置而不是它們的精確值。基因組無法指定顯式制定神經的接線,而必須指定一組規則,用於在孕育過程中連接大腦。 兩點啟發

將上述思考放到當前深度學習的研究當中,已經有了很多新發現:

動物出生後具備快速學習的能力,主要因為它們天生就有一個高度結構化的大腦連接。後續學習過程中,這種連接就像提供了一個腳手架,在此基礎上快速學習,這種類似的學習理念可能會激發新的方法加速AI研究。

先說第一個。

動物行為為天生的而非學習中產生,動物大腦不是白板,相反配備了一個通用的算法,就像當下很多研究人員設想AGI那樣。

動物強選擇性學習,將學習範圍限制在生存必須能力中。

有些觀點認為動物傾向快速學習具體事情是依賴於AI研究和認知科學中的元學習和歸納偏差。按照這種說法,神經網絡中有一個外循環優化學習機制,產生歸納偏差,讓我們快速學習具體任務。

先天機制的重要性也表明,神經網絡解決新問題會儘可能嘗試那裡以前所有相關問題的解決方案,就像遷移學習那樣。

但遷移學習與大腦中的先天機制有本質區別,前者的連接矩陣很大程度上屬於起點,而在動物體內需要遷移的信息量很小,經過了「瓶頸基因組」,信息的通用性和可塑性更強。

從神經科學的角度來看,應該存在一種更強大的機制,也就是一種轉移學習的泛化,不僅能夠在視覺模式中運作,還能跨模態進行遷移。

第二個結論是,基因組不直接編碼表示或者行為,也不直接編碼優化原則。

基因組只能編碼布線規則和模式,然後實例化這些規則和表示。進化的目標,就是不斷優化這些布線規則,這表明布線拓撲和網絡架構是人工系統中的優化目標。而傳統的人工神經網絡很大程度上忽略了網絡架構的細節。

目前,人工神經網絡僅利用了其中一小部分可能的網絡架構,還有待發現更強大的、受大腦皮層啟發的架構。

其實現在來看,神經處理過程可以通過神經實驗顯示出來,通過記錄神經活動,間接推斷出神經表徵和布線。

目前,已經有方法可以直接確定布線和腦迴路,也就是說,大腦皮層連接的細節有可能不久後就會獲取到,並為神經網絡的研究提供實驗依據。

這些啟發不難讓人聯想起谷歌大腦團隊發布的新研究。只靠神經網絡架構搜索出的網絡WANN,即權重不可知神經網絡。不訓練,不調參,就能直接執行任務。

它在MNIST數字分類任務上,未經訓練和權重調整,就達到了92%的準確率,和訓練後的線性分類器表現相當,前景無限。

結論

大腦能為AI研究提供幫助是人工神經網絡研究的基礎。

人工神經網絡試圖捕捉神經系統的關鍵點:許多簡單的神經單元,通過突觸連接並行運行。

人工神經網絡的一些最近的進展也來自神經科學的啟發。比如DeepMind鍾愛的強化學習算法,也誕生過AlphaGo Zero這樣的新研究,這就是從動物學習的研究中汲取靈感的範例。同樣,卷積神經網絡的靈感來自視覺皮層的結構。

但反過來說,AI的進一步發展是否會方便動物大腦的研究,仍然存在爭議。

我們認為這不太可能,因為我們對機器的要求,有時被誤導為通用人工智慧,根本不是通用的。

這樣與人類技能類似的能力,只有與大腦類似的機器才能實現它。但機器與人腦的構造完全不同。

飛機的設計起源於鳥,但最後遠優於鳥:飛得更快、適應更高的海拔、更長的距離、具有更大的貨容量。但飛機不能潛入水中捕魚,或者從樹上猛撲去捕鼠。

同樣,現代計算機已經通過一些措施大大超過人類的計算能力,但是無法在定義為通用AI的明確的任務上與人類能力對應。

如果我們想要設計一個能夠完成人類所有工作的系統,就需要根據相同的設計原則構建它。 傳送門

Nature報導地址:

https://www.nature.com/articles/s41467-019-11786-6

Reddit討論區:

https://www.reddit.com/r/MachineLearning/comments/ctu0aj/research_a_critique_of_pure_learning_and_what/

Twitter討論區:

https://twitter.com/TonyZador/status/1164362711620362240

— 完 —

閱讀原文

相關焦點

  • 登上Nature子刊封面:英特爾神經晶片實現在線學習
    近日,來自英特爾和康奈爾大學的研究者宣布,團隊已經在神經形態晶片 Loihi 上成功設計了基於大腦嗅覺電路的算法,實現了在線學習和強記憶力能力。這項研究發表在最新一期自然雜誌子刊上《Nature Machine Intelligence》上,並成為封面文章。
  • 南京大學團隊取得重要進展,成果接連登上Science子刊、Nature子刊
    近日,南京大學物理學院繆峰團隊在類腦視覺傳感器方面取得重要進展,成果以&34;(基於柵極可調範德華異質結的可重構神經網絡視覺傳感器)為題於 2020年6月24日發表在《科學》雜誌子刊Science Advances上。
  • 南大成果接連登上Science子刊、Nature子刊
    近日,南京大學物理學院繆峰團隊在類腦視覺傳感器方面取得重要進展,成果以"Gate tunable van der Waals heterostructure for reconfigurable neural network vision sensor"(基於柵極可調範德華異質結的可重構神經網絡視覺傳感器)為題於 2020年6月24日發表在《科學》雜誌子刊Science Advances
  • 人工神經網絡研究的發展歷程及重要特性
    ( Kohonen)對神經網絡研究作出重要貢獻。以生物學和心理學證據為基礎,格羅斯伯格提出幾種具有新穎特性的非線性動態系統結構。該系統的網絡動力學由一階微分方程建模,而網絡結構為模式聚集算法的自組織神經實現。基於神經元組織自調整各種模式的思想,科霍恩發展了他在自組織映射方面的研究工作。沃博斯( Werbos)在20世紀70年代開發出一種反向傳播算法。霍普菲爾德在神經元交互作用的基礎上引入一種遞歸神經網絡,這種網絡就是有名的Hopfield網絡。
  • 飛速發展的電子計算機技術,開創人工神經網絡,特點以及優勢較多
    人工神經網絡的產生和發展為實現這一理想展現了一個光明的前景,開闢了一個新的方向。人腦是宇宙中已知的最複雜的結構,科學家們經過不斷的探索已經了解到大腦事實上是一個由數以億計的神經元組成的網絡結構,人腦的感知,記憶、學習和思維等功能就是神經網絡所顯示的活動,是神經元之間的協同效應,是一種「集體智慧」。
  • 對人工神經網絡「開刀」,利用神經科學消融法檢測人工神經網絡
    但大部分人認為,黑箱問題需要被解決,當我們將神經網絡應用到一些對安全性,穩定性要求很高的行業,如醫療,我們就必須進行精準控制,出現錯誤或問題時,我們要對內部結構進行分析改正,這時黑箱問題就希望得到解決。
  • 人工智慧算法:訓練神經網絡中的批量歸一化(附代碼)
    Keras:一個開放原始碼庫,用於實現可在CPU和GPU上運行的神經網絡體系結構。更具體地說,它包括60,000個訓練示例和10,000個測試示例,它們都是尺寸為28 x 28的灰度圖像,分為十類。數據集的準備工作包括通過將每個像素值除以255.0來歸一化訓練圖像和測試圖像。這會將像素值置於0到1的範圍內。在此階段,還將創建數據集的驗證部分。在訓練期間利用該組數據集來評估網絡在各種迭代中的性能。
  • 揭秘:後天教育對先天腦意識系統的改變與損耗
    觀察發現,整個大腦虛體意識呈現出淡藍色的光,非常的明亮通透、能量純度極高,能非常清晰的看到大腦的能量管道和神經系網絡。再次將其中一根神經或通道放大觀察,看到在管道內存在藍白色的能量在流動,速度和頻率極高。還顯示大腦功能區和宇宙信息接收通道的網絡連接及路徑都是正常的。整個網路能量在自動循環,宇宙能量通過總通道進入大腦循環並補充能量後,又從總通道回到了宇宙。
  • 什麼是人工神經網絡(ANN)?
    每天使用神經網絡的應用程式有很多,例如Google的翻譯服務,Apple的Face ID iPhone鎖和Amazon的Alexa AI驅動的助手。神經網絡也在其他領域的一些重要人工智慧突破背後,例如診斷皮膚和乳腺癌,讓目光投向自動駕駛汽車。人工神經網絡背後的概念和科學已經存在了數十年。
  • 人工神經網絡及其應用
    該模型為開創神經學科理論研究的新時代。在1949年,心理學家Donala O.Hebb出版一本為《行為構成》的書,在書中他建立了現在被人們稱為Hebb算法的連接訓練算法。1958年計算機學家Frank Rosenblatt 發表一篇很有名的文章,在文章中他提出了具有三層網絡結構的神經網絡結構,該文章中提出的算法與後來的反向傳播算法和自組織算法類似。
  • 初識人工神經網絡
    這也就是神經網絡的魅力所在。人工神經網絡(artificial neural networks) 是一種模仿生物神經網絡行為特徵,進行信息處理的算法數學模型。在人工神經網絡模型中使用單元節點模擬神經元,通過調整神經網絡內部大量節點(神經元)之間相互連接的權重來達到處理信息的目的。
  • 指尖的超算:MIT腦啟發晶片登上Nature子刊
    機器之心報導參與:澤南、小舟、杜偉想要運行人工神經網絡,我們還是需要神經形態晶片。這一研究的論文《Alloying conducting channels for reliable neuromorphic computing》今天已發表在自然雜誌子刊《Nature Nanotechnology》上,研究人員展示了一種頗具潛力的新型神經記憶憶阻器設計,其電路以一種模仿大腦神經結構的方式處理信息。
  • 用深度神經網絡求解「薛丁格方程」,AI開啟量子化學新未來|Nature子刊
    該團隊成員簡·赫爾曼(Jan Hermann)稱,到目前為止,離群值(Outlier)是最經濟有效的密度泛函理論(Density functional theory ,一種研究多電子體系電子結構的方法)。相比之下,我們的方法可能更成功,因為它在可接受的計算成本下提供了前所未有的精度」。
  • 人工智慧神經網絡和生物大腦有什麼區別 神經網絡將如何發展
    關鍵是有機大腦的結構和先天能力,這種觀點在當今的AI社區中大多被駁回,而人工神經網絡主導了這一論點。神經科學冷泉港實驗室教授Anthony Zador在同行評審期刊《自然》上發表的一篇論文中指出,這是一個高度結構化的大腦,可以使動物成為非常高效的學習者。
  • 為ML帶來拓撲學基礎,Nature子刊提出拓撲數據分析方法
    機器之心報導參與:思、一鳴一位義大利數學家表示,現在我們可以使用一種新數學方法,讓機器學習系統能更高效、快速地學習識別複雜圖像。該數學家提出的理論已經被 Nature 子刊《Machine Intelligence》接收,該論文的作者表示,這種新方法可以稱為「拓撲數據分析(TDA)」。
  • 國內首發Nature子刊 Machine Intelligence論文:思想精妙,或對DNN...
    從這些定義可見,個體對複雜、動態環境的高適應性是智能的重要標誌;根據對環境變化的適應能力來評估智能水平也是不同領域學者較為統一的共識。 人類大腦顯然是高環境適應性的典範。人不僅可以在新的環境中不斷吸收新的知識,而且可以根據不同的環境靈活調整自己的行為。在此方面,目前廣泛使用的深度神經網絡(deep neural networks,DNN)與大腦相比則存在著很大的差距。
  • Nature子刊:清華研究團隊盤點類腦計算晶片簡史
    儘管人們認為某些技術在更廣泛的應用中很有前途,但是常規硬體有時候並不能支撐其計算負荷,因此會限制這些技術的性能。 為了克服現有硬體的局限性,同時要確保受大腦啟發的計算技術取得最佳結果,一種可能的解決方案便是創建新的電子組件,以更好地反映人腦的結構。 一類受神經啟發的計算晶片是專門為模仿人和其他動物的大腦神經結構的人工智慧應用而設計的。
  • 告別調參煉丹,谷歌「權重無關」神經網絡開源了!
    其關鍵思想是通過不再強調權重來搜索網絡結構,僅使用隨機共享的權重,也可以執行各種任務的神經網絡。終於可以不用調參煉丹了嗎?快來復現看看! 神經網絡訓練中 「權重」 有多重要不言而喻。但谷歌前段時間發表的研究表明,即使拋棄神經網絡權重訓練,使用隨機共享權重,也可以執行各種任務。
  • 新科普 | 中科院院士提醒家長:抓住神經網絡發育關鍵期
    人的聰明才智來自先天還是後天?近日,中科院院士、中科院神經科學研究所所長蒲慕明在上海科普大講壇上拋出了這個問題。在他看來,遺傳基因是正常神經網絡形成的必要條件,但形成不同神經網絡的很多因素來自後天。復旦大學附屬兒科醫院神經內科主任醫師王藝建議,孩子在10歲前是神經發育的黃金期,培養孩子聰明才智要重點把握這一階段。
  • 研究不同神經元在人工神經網絡中的作用
    在過去十年左右的時間裡,世界各地的研究人員一直在開發越來越先進的人工神經網絡(ANNs),這種計算方法旨在複製人類大腦的生物機制和功能。雖然其中一些網絡在各種任務中取得了顯著的成果,但預測背後的決策過程並不總是很清楚。