用反向傳播算法解釋大腦學習過程?Hinton等人新研究登Nature子刊

2020-12-23 機器之心Pro

機器之心報導

魔王、Jamin、杜偉

反向傳播可以解釋大腦學習嗎?近日 Hinton 等人的研究認為,儘管大腦可能未實現字面形式的反向傳播,但是反向傳播的部分特徵與理解大腦中的學習具備很強的關聯性。該研究將之前的相關研究置於「NGRAD」框架下,NGRAD 算法利用活動狀態的差異驅動突觸更新,這與反向傳播類似。

加拿大 CIFAR 人工智慧主席、麥吉爾大學生物工程系教授 Danilo Bzdok 轉發了該研究。

在學習過程中,大腦會調整突觸以優化行為。在皮層中,突觸嵌入在多層網絡中,這導致我們難以確定單個突觸的調整對整個系統行為的影響。而反向傳播算法在深度神經網絡中解決了上述問題,不過長期以來人們一直認為反向傳播在生物層面上存在問題

儘管如此,神經科學的最新發展和神經網絡的成功激活了人們對反向傳播能否幫助進一步了解皮層學習的興趣。反向傳播算法使用反向連接(feedback connection)傳遞誤差信號,來計算突觸更新,從而實現快速學習。儘管反向連接在皮層中無處不在,但我們很難觀察到它們是如何傳遞反向傳播所需誤差信號的。

近日,來自 DeepMind、牛津大學和谷歌大腦的 Timothy P. Lillicrap、Adam Santoro、Geoffrey Hinton 等人在 Nature 子刊《Nature Reviews Neuroscience》發表文章。該研究以過去和近期的研究發展為基礎,認為反向連接可能會引發神經活動,而其中的差異可用於局部逼近誤差信號,從而促進大腦深層網絡中的有效學習。

大腦對反向傳播算法的近似。

論文地址:https://www.nature.com/articles/s41583-020-0277-3

引言

大腦通過調整神經元之間的突觸連接來進行學習。儘管突觸生理學可以幫助解釋單個突觸調整背後的規則和過程,但這並不能解釋突觸調整是如何協調進而實現網絡目標的。

學習不能只是對局部突觸特定事件的盲目累積,也不能不考慮下遊行為後果。因此,想要了解大腦中的學習過程,就必須揭示在整個網絡中協調可塑性的原則。

在機器學習領域中,研究人員探索協調突觸更新的方法,以提高神經網絡的性能,同時不受生物現實情況的限制。

他們首先定義了神經網絡的整體架構,包括大量神經元及其連接方式。例如,研究人員經常使用包含多層神經元的深層網絡,因為研究證明這些架構對於多項任務都非常有效。

接下來,定義一個誤差函數,用於量化當前網絡實現目標的程度,進而搜索學習算法來計算那些可以減少誤差的突觸變化(如下圖 1)。

圖 1:多種學習算法圖示。a)從左到右:神經網絡通過一系列簡單的計算單元來計算輸出。b)在規定突觸變化特異性的譜系中,反向傳播和擾動算法的位置。c)該譜系上的算法以不同的速度進行學習。

在機器學習中,誤差反向傳播(backprop)是深度神經網絡訓練中最常用的算法,也是這些神經網絡中最成功的學習步驟。

反向傳播算法描述見下圖:

反向傳播算法的核心是對整個網絡所有可能的路徑重複使用鏈式法則。反向傳播算法真正強大的地方在於它是動態規劃的,我們可以重複使用中間結果計算梯度下降。因為它是通過神經網絡由後向前傳播誤差,並優化每一個神經節點之間的權重,所以這種算法就稱之為反向傳播算法(backpropagation algorithm)。

經過反向傳播訓練的網絡是機器學習近期成功案例的核心,包括最領先的語音識別、圖像識別以及語言翻譯。反向傳播還支撐了無監督學習方面的最新進展,例如圖像和語音生成、語言建模和其他相關的預測任務。此外,反向傳播和強化學習的組合在解決控制問題方面也取得了重大進展,例如玩轉 Atari 遊戲,在圍棋和撲克遊戲中擊敗人類頂尖的專業選手。

反向傳播通過反向連接發送的誤差信號來調整突觸,該經典方法已在監督學習設置中有詳細描述。

然而,大腦似乎將反向連接用於不同目的,而且主要以無監督的方式進行學習,為原始感官輸入中的隱式表徵構建顯式結構從而建立表徵。那麼,我們很自然地就會想到這個問題:反向傳播算法是否可以幫助我們了解更多有關大腦學習的信息?

該研究認為,儘管存在明顯的差異,但大腦仍有能力實現反向傳播的核心原則。其主要思想是,大腦可以通過使用反向連接來引發神經元活動從而計算有效的突觸更新,而這些神經元活動將局部計算出的差異編碼成類似於反向傳播的誤差信號。

該研究將一組看似完全不同的學習算法放入該框架中——neural gradient representation by activity differences(NGRAD)。

NGRAD 框架表明,在避開反向傳播許多有問題的實現要求後,反向傳播核心原則的實現是可能的。這些考慮因素可能與任何同時包含前向和反向連接的腦迴路有關。儘管如此,該研究團隊仍然關注大腦皮層,皮層是由其多層結構和分層組織所定義的,因此長期以來被視為具與深度網絡具備很多相關的架構特徵。

大腦中是否存在反向傳播?

目前沒有直接證據表明,大腦使用類似反向傳播的算法進行學習。但是,之前的研究表明,使用反向傳播訓練的模型可以解釋觀測到的神經響應,如後頂葉皮層和初級運動皮層中的神經元響應。此外,神經科學領域對視覺皮層進行建模的研究提供了新的證據。

該研究表明,相比匹配靈長目動物視覺皮層腹側流中表徵的其他模型,使用反向傳播訓練得到的多層分類模型性能更好(參見下圖 2)。

未使用反向傳播訓練的模型(如使用 Gabor filter 的生物啟發模型,或使用非反向傳播優化的網絡)的性能不如使用反向傳播進行優化的網絡。與使用反向傳播訓練的模型所發現的表徵相比,未使用反向傳播模型的表徵無法很好地匹配下顳葉皮層中的表徵。

圖 2:使用反向傳播訓練的網絡與利用視覺皮層腹側流中神經響應的模型的對比。a)Cadieu 等人的研究 [58] 表明使用反向傳播訓練的模型(藍色)比其他模型(灰色)更好地解釋下顳葉皮層(IT)中的多單元響應;b)Khaligh-Razavi 和 Kriegeskorte 的研究 [70] 表明,具備更好分類性能的模型與 IT 表徵的近似度越高。

使用反向傳播訓練的深層網絡除了能夠更好地匹配大腦中的表徵以外,它還可以幫助解釋感知學習中感受野變化的規模和時間,以及在動物和人類的某種學習過程中觀察到的階段變換。

反向傳播自身的問題

儘管越多越多的證據表明使用反向傳播訓練的多層網絡有助於解釋神經數據,但關於如何在皮層中實現類反向傳播的學習還有很多難題。下列公式 1 表示反向傳播中的突觸更新:

基於該公式,該研究指出了在生物迴路中實現反向傳播的三個主要難題。

反向傳播要求前向和後向路徑具備突觸對稱性

反向傳播的樸素實現要求通過反向連接傳播誤差信號,而反向連接的強度必須與前向連接一致。從上文公式 1 中可以看到,誤差 δ_l+1 沿著後向權重 W^_l+1 移動,該後向權重與前向權重是對稱的。

在計算機上,反向傳播算法利用一組與前向傳播所用活動變量完全不同的 error derivative 變量,向後傳播誤差信息。而將反向傳播引入大腦中後,大腦中的誤差信息可以通過不同的「誤差傳播網絡」(error delivery network)進行傳播,該反向網絡的每一個神經元均攜帶前向網絡中對應神經元的更新信息。

反向傳播中的誤差信號可能出現極值情況

在反向傳播中,通過網絡向後傳播用於告知更新的信息通常以 signed 誤差信號 δ 的形式進行傳輸。在訓練過程中,誤差信號常常發生多個數量級的變化,即梯度爆炸和梯度消失問題。

儘管有證據表明單層結構(如小腦)中存在 signed 誤差傳播,但深層網絡(如大腦皮層)中 signed 誤差的反饋存在很多問題。

大腦中的反向連接改變了神經活動

在誤差反向傳播中,反向連接發送的誤差信號不會影響前向傳播生成神經元的活動狀態。但是通過 δ 傳播的信息僅對突觸更新造成影響。因此,大腦中反向連接的作用發生本質變化。例如在皮層中,反向連接影響前向傳播生成的神經活動,而這些活動用於執行多個功能。又例如,通過反向連接執行自上而下的控制與增益控制(gain control)有一定關聯,即神經響應的增強或抑制取決於對視場中特定特徵的關注。有趣的是,大腦皮層中的反向連接還可以驅動活動,而不只是調整或激活活動。

NGRAD 假設

利用神經活動差異來編碼誤差

研究者將利用活動狀態差異來驅動突觸變化的學習機制稱為 NGRAD,而皮層利用 NGRAD 機制來執行對梯度下降近似的想法被稱為 NGRAD 假設。該假設的主要魅力在於,它不再需要傳播兩種類型截然不同的參數:活動和 error derivative。

相反,NGRAD 機制基於這樣一種 idea,即來自一個目標、另一種形態或更大空間或時間背景的較高級活動,可以推動較低級活動得到與較高級活動或期望輸出更一致的值。然後,較低級活動中出現的變化可以僅使用局部可用信號來計算反向傳播的權重更新。因此,其核心理念是自上而下驅動(top-down-driven)的活動可以在層間不出現明顯誤差信息的情況下驅動學習。

目標傳播

目標傳播是深度學習中使用一系列自編碼器的基礎理念,下圖 3a 展示了目標傳播的流程圖:

圖 3:目標傳播算法。a)在每一層使用完美反函數 g_l=f_l^-1(.) 的目標傳播原理圖;b)差異目標傳播有助於糾正反向連接或許無法實現完美反函數的事實;c)單層差異目標傳播原理圖。前向突觸權重的更新旨在促使 forward-pass 隱藏活動更接近修正後的隱藏目標。

差異目標傳播

上文中描述的目標傳播使用完美的自編碼器將目標傳達至較早出現的層。這個約束是不切實際的,但可以通過訓練後向權重來修復。在前向傳遞過程中,研究者力圖基於後續層中的活動來重建神經活動: h= g_l+1(h_l+1)(如圖 3b 中淺紫色箭頭所示)

此學習過程稱為差異目標傳播(difference target propagation,DTP),並在圖 3b 和 c 中與逐層權重更新一起顯示。

實現

大腦如何近似反向傳播,現有的 NGRAD 或許能提供高級見解,但是關於如何在神經組織中實現這種算法仍有許多疑問。

為了在神經迴路中發揮作用,NGRAD 必須具備以下能力:協調前向和反向路徑之間的交互、計算神經活動模式之間的差異以及利用這一差異進行適當的突觸更新。

當前,尚不清楚生物迴路如何支持這些操作,但最近的實證研究提出了針對這些實現所需的一組潛在解決方案(下圖 4)。

圖 4:大腦如何近似反向傳播算法,近期的實證研究提供了新思路。

相關焦點

  • 算法推導:反向傳播算法
    13.3.1 反向傳播算法推導如下圖所示為一個神經網絡的結構圖,由於本文主要探討激活函數在反向傳播過程中的作用,因此不會帶入數值進行計算,而是以兩個權重的更新為案例進行公式的推導,分別為如何通過反向傳播算法更新和的值。
  • 徹底解決梯度爆炸問題,新方法不用反向傳播也能訓練ResNet
    機器之心報導參與:思、一鳴反向傳播是深度學習算法中必不可少的組成部分,但是其固有的梯度爆炸(消失),計算速度慢等問題一直困擾著學界。近日,紐西蘭維多利亞惠靈頓大學的研究者提出了一種新型的算法,可以讓深度學習在不依賴反向傳播的情況下進行收斂,徹底解決了梯度爆炸問題。同時,研究者表示,只需要額外訓練單層的網絡就可以達到圖像分類中的 SOTA 性能。
  • 深度學習之父Hinton:下一代神經網絡
    這意味著如果要學習大多數突觸,顯式標籤或獎勵可能無法提供足夠的信息,因為我們必須每秒學習10^5個突觸。有人反對人類需要學習所有突觸的觀點。一種說法是,可能大多數突觸都不會被學習,而且進化的效率很低,進化算法的效率就比反向傳播算法低得多。突觸可能是高度冗餘的。但是,我認為大腦浪費容量的可能性很小。人類的學習模型非常龐大,卻不需要大量的數據,這與常規的統計方法非常不同。
  • 乾貨丨Pedro Domingos深度解析機器學習五大流派中主算法精髓
    那麼計算機到底是如何發現新的知識的呢?1. 填補現有知識的空白和科學家工作的方式很像,觀察——做出假設——通過理論來進行解釋——成功(或失敗,嘗試新的)等2.大腦仿真世界上最偉大的學習機器就是人的大腦,因此讓我們對它進行逆向工程。
  • 機器學習讓腦機接口「即插即用」!Nature 子刊:癱瘓患者也能...
    想像一下,一款產品每天都要重新設置和校準,還不能進入大腦的自然學習過程,就像一個人一生中每次騎自行車都要從頭學起。為此,研究團隊的目標很明確:開發出一種無需重新校準而保持產品性能穩定的腦機接口技術。長期植入 ECoG 電極陣列
  • 《Nature》子刊:不僅是語言,機器翻譯還能把腦波「翻譯」成文字
    他們用一個編碼器-解碼器框架將大腦神經信號轉換為文字,在 250 個詞的封閉句子集中將錯誤率降到了 3%。但是,當前機器翻譯架構可以通過人工神經網絡直接從數據中學習特徵,這表明機器翻譯的端到端學習算法幾乎可以直接運用於語音解碼。為了驗證這一假設,在語音生成過程中,研究者利用從腦電圖(ECoG)獲得的神經信號以及相應口語的轉錄,訓練了一種「序列到序列」的架構。
  • 谷歌大腦提出AutoML-Zero,只會數學運算就能找到AI算法|開源
    AI既然能從零學習圍棋,是否可以從零開始摸索機器學習算法?當然可以,谷歌大腦團隊最新的研究成果已經做到了。谷歌將這種技術稱之為AutoML-Zero,意為「從零開始的自動機器學習」,已經在GitHub開源,並在Arxiv上提交了論文。
  • Hinton的那篇Capsule論文終於揭下了神秘的面紗
    ,也因為該篇論文,他被刊進了各大媒體的頭版頭條。 一個月前,在多倫多接受媒體採訪時,Hinton大神斷然宣稱要放棄反向傳播,讓整個人工智慧從頭再造。不明就裡的媒體們頓時蒙圈不少。 8月份的時候,Hinton大神還用一場「卷積神經網絡都有哪些問題?」的演講來介紹他手中的Capsule研究,他認為「CNN的特徵提取層與次抽樣層交叉存取,將相同類型的相鄰特徵檢測器的輸出匯集到一起」是大有問題的。
  • 菊紋、糞便識別測健康,斯坦福智能馬桶研究登上Nature子刊
    在這篇論文中,研究者發明了一種「菊紋識別」智能馬桶,可以利用深度學習技術識別你的「菊紋」和便便,從而達到健康監測的目的。目前,該論文已經在《Nature Biomedical Engineering》期刊上發表。深度學習三巨頭之一、圖靈獎獲得者 Yann LeCun 看完之後一臉認真地說,「卷積網絡正在馬桶上落地,為人類謀福祉。」
  • 菊紋,糞便識別測健康,斯坦福智能馬桶研究登上Nature子刊
    在這篇論文中,研究者發明了一種「菊紋識別」智能馬桶,可以利用深度學習技術識別你的「菊紋」和便便,從而達到健康監測的目的。目前,該論文已經在《Nature Biomedical Engineering》期刊上發表。深度學習三巨頭之一、圖靈獎獲得者 Yann LeCun 看完之後一臉認真地說,「卷積網絡正在馬桶上落地,為人類謀福祉。」
  • 騰訊AI Lab聯合研究登上Nature子刊,首次...
    雷鋒網消息,11月17日,騰訊公布了一項人工智慧助力藥物發現的新進展。通過騰訊自研的提升蛋白質結構預測精度的新方法,聯合研究團隊首次解析了II型5a還原酶(SRD5A2)的三維結構,揭示了治療脫髮和前列腺增生的藥物分子「非那雄胺」對於該酶的抑制機制,這將有助於深化研究相關疾病的病理學機制及藥物優化。
  • Nature屠榜,AI領域Top 1000期刊盤點
    今年以來,Nature封面登載了中國科學家關於「仿生群體機器人」的突破性研究;利用AI解碼大腦活動,直接從大腦信號中合成語音;以及復活死亡後的豬大腦等重磅研究,引起廣泛關注。新智元 × Nature:Nature重磅封面:復活死亡大腦!
  • 2018年度SCI期刊影響因子最新發布,Nature、Science、Cell三大神刊...
    今年以來,Nature封面登載了中國科學家關於「仿生群體機器人」的突破性研究;利用AI解碼大腦活動,直接從大腦信號中合成語音;以及復活死亡後的豬大腦等重磅研究,引起廣泛關注。 新智元 × Nature: Nature重磅封面:復活死亡大腦!
  • Nature 子刊新研究表明,聞氣味會長胖
    雷鋒網註:圖片截自 Nature CommunicationsNature 子刊 Nature Communications 發表的一篇研究顯示,嗅覺神經元能夠對脂肪儲存進行動態調節,不同的氣味會觸發不同的嗅覺神經元,進而影響脂肪的代謝過程。劃重點!
  • 腦科學日報:Science子刊揭示嗜酒成癮之謎;老年聾的真正原因
    《Nature》子刊發布!全球獨一無二的資料庫,揭示人類和130種哺乳類動物大腦連通性守恆!來源:腦友記BrainUp以色列的研究人員對大約130種哺乳動物的大腦進行了先進的擴散MRI掃描,生成了一個全新的、全球獨一無二的資料庫。
  • Nature子刊:靈長類腦中抽象規則認知的產生|腦科學頂刊導讀78期
    >3,前額葉皮質投射神經元靶向背側紋狀體控制行為抑制4,所有人都是直覺科學家:重新思考決策的統計解釋5,從失敗的行為改變中學習1,靈長類腦中抽象規則認知的產生>期刊:nature reviews neuroscience作者:Sniper抽象規則會在很多方面影響人類的認知,因為這些規則會幫助我們描述離散的事件和體驗,並且將其連接和分類為有意義的概念。
  • 運動會改變大腦;「談蛇色變」原來是天生的感覺
    論文作者提出了振蕩式時間預期模型(Oscillated Temporal Expectation Model,簡稱OTEM),試圖用一個統合的機制去解釋各種啟動效應及其時間動態特性。模型假設,啟動刺激出現後,大腦會為即將出現的目標積極進行準備。
  • Nature子刊:北大劉穎/李川昀揭示組蛋白去乙醯化酶調控線粒體應激...
    Nature子刊:北大劉穎/李川昀揭示組蛋白去乙醯化酶調控線粒體應激反應和壽命 2020-09-21 07:20 來源:澎湃新聞·澎湃號·湃客
  • 使用Numpy進行深度學習中5大反向傳播優化算法的性能比較
    在本文中,我們將通過計算二次凸函數的最優點來數值比較主要的深度學習優化算法的性能。簡介深度學習被稱為人工智慧的未來。現在,神經網絡被稱為通用函數逼近器,也就是說,它們有能力表示這個宇宙中任何複雜的函數。計算這個具有數百萬個參數的通用函數的想法來自優化的基本數學。
  • Nature子刊新技術:燒結產生3D血管網絡結構!
    Kinstlinger解釋說,大自然通過複雜的血管網絡的進化解決了這個問題,這些血管網絡編織在我們的組織和器官中,讓人想起樹枝的圖案。同時,血管的厚度會變小,但數量會增加,因為它們從中央主幹分叉,使氧氣和營養物質能夠有效地輸送到全身的細胞中。