Science子刊:人腦存在加速學習機制,算力賽過最新AI算法

2020-12-05 騰訊網

新智元報導

來源:Science等

編輯:嘯林

機器學習和深度學習算法的起源,是連接大腦中神經元的突觸強度的學習機制,它越來越多地影響著當代生活的幾乎所有方面。

半個世紀以前,研究人員試圖模仿這些大腦的功能,將神經科學和人工智慧聯繫起來。但是,從那時起,實驗神經科學並未直接推動機器學習領域的發展,兩個學科一直在相互獨立並行發展

在今天發表在《科學報告》的一篇文章中,研究人員稱,他們已經重建了實驗神經科學和機器學習之間中斷70年的橋梁。

我們大腦的高級學習機制可能會導致更高效的AI算法。圖片來源:巴伊蘭大學Ido Kanter教授

該研究的主要作者,巴伊蘭大學物理系和多學科大腦研究中心的Ido Kanter教授說:「據信,大腦中的學習步驟通常可持續數十分鐘甚至更長,而在一臺計算機中,則可持續一納秒,或者說是一百萬次快一百萬次。」

研究人員著手證明兩個假設:一,我們總認為大腦學習非常緩慢,這可能是錯誤的;二,大腦可能有加速學習機制

出乎意料的是,兩個假設都被證明是正確的。儘管大腦相對較慢,但其計算能力優於典型的最新人工智慧算法

通過在神經元培養上進行新型人工神經網絡實驗,研究人員首先證明了增加的訓練頻率會加速神經元適應過程

這項工作的主要貢獻者Shira Sardi表示:「每秒觀察10次相同圖像的學習效果與每月觀察1000次相同圖像的效果一樣。」

另一位貢獻者Roni Vardi博士補充說:「快速重複相同的圖像可將我們的大腦適應能力提高到幾秒鐘而不是幾十分鐘。大腦的學習甚至可能更快,但這已經超出了我們目前的實驗限制。

其次,研究人員展示了一種受大腦啟發的新學習機制。這種機制是在人工神經網絡上實現的,其中對於連續學習步驟,局部學習步長會增加

在手寫數字的簡單數據集MNIST上進行了測試,其成功率大大超過了常用的機器學習算法,例如手寫數字識別,尤其是在提供較小型的數據集進行訓練的情況下。

實驗神經科學與機器學習之間連接的重建,有望在有限的訓練示例下促進人工智慧(尤其是超快速決策)的發展,對於人類決策,機器人控制和網絡優化的許多情況同樣適用。

下面,開始論文乾貨。

論文介紹

突觸強度的改變通常持續數十分鐘,而神經元(節點)的時鐘速度範圍約為一秒。儘管大腦相對較慢,但其計算能力優於典型的最新人工智慧算法。遵循這種速度/能力悖論,我們通過實驗得出基於小型數據集的加速學習機制,這些機制在千兆赫處理器上的利用有望導致超快決策。

與現代計算機不同,定義明確的全局時鐘不能控制大腦的運行過程。相反,它們是相對事件時間(例如,刺激和誘發的尖峰)的函數。根據神經元計算,使用經過分支的樹突樹的衰減輸入求和,每個神經元將異步輸入電信號求和,並在達到閾值時生成短電脈衝(峰值)。每個神經元的突觸強度會根據來自其他突觸的相對輸入時間進行緩慢調整。如果從突觸中感應出信號而沒有產生尖峰,則基於與來自同一神經元上其他突觸的相鄰尖峰的相對時序來修改其關聯強度。

最近有實驗證明,每個神經元都起著獨立閾值單元的作用。信號通過樹突樹到達後,每個閾值單元都會被激活。另外,基於樹突信號到達定時實驗上觀察到的一種新型自適應規則,這類似於當前歸因於突觸(連接)的慢速自適應機制。這種樹突適應發生在更快的時間尺度上:大約需要五分鐘,而突觸修飾則需要數十分鐘或更長時間。

研究過程

1.實驗結果表明,適應率隨訓練頻率的增加而增加。

在這項研究中,研究人員將神經元培養種植在添加了突觸阻滯劑的多電極陣列上,這種突觸阻滯劑可通過其樹突細胞在細胞外刺激這個被膜片鉗夾住的神經元。

通過神經元樹突在細胞內刺激被研究的神經元,並為每種刺激路徑生成不同的尖峰波形。更詳盡解釋請參閱論文原文「材料和方法」部分。

適應過程包括一個訓練集:50對刺激。通過進一步測試神經元刺激的響應時間和強度是否正常,我們量化了神經元適應的效果,確定下來了應該以怎樣的細胞外刺激幅度來進行研究。

神經元的正常延遲時間:1-4毫秒

為了量化初始反應,降低細胞外刺激幅度,直到未觀察到可靠的誘發峰。

2.加速基於生物學啟發機制的有監督的可實現學習規則。

與生物學機制的暗示相符合,隨著訓練頻率的增加,適應過程將大大加速,

這可能意味著隨時間變化的遞減適應步長(等式1):

當前的適應步驟 + 1 d ,等於權重遞減的前一個, 代表離散時間步長,0是一個常數,1 /τ代表訓練頻率,而Δ是一個常數,代表當前訓練步驟的增量效果。

使用可實現規則和二進位分類的有監督在線學習,研究了兩種情況:突觸適應和樹突適應:

我們首先檢查了時間依賴的適應步驟(等式1)對加速生物學學習過程的影響。Teacher給student提供了異步輸入和二進位輸出關係,它們都具有最簡單的分類器感知器的相同架構,輸出節點由洩漏的集成並發射神經元。

結果清楚地表明,泛化誤差,ε g的實驗啟發式的時間相關η(等式1)基本上勝過固定η情景(上圖)。這種加速的學習源於以下事實:突觸學習中的權重收斂到極限,權重消失或超過閾值。

3. 使用在神經網絡上測試的MNIST資料庫,在無法實現的規則的有監督學習中檢查了實驗啟發式的時間相關學習步驟機制。

這個資料庫包含大量手寫數字示例(如下圖),通常用作原型問題,用於量化針對各種圖像處理任務的機器學習算法的泛化性能。

在這項研究中,我們使用MNIST資料庫的一小部分,沒有任何數據擴展方法。常用的訓練網絡由784個輸入(代表一個數字28×28像素),一個隱藏層(本研究中為30個單位)和十個代表標籤的輸出(如上圖)組成。常用的學習方法是反向傳播策略:

其中將步長上的權重朝著成本函數的梯度負號C的步長η進行修改。一種改進的方法是動量策略和權重的正則化(上圖為等式2):

動量μ和正則化α在區域[0,1]中是常數,並且 0η0是一個常數。

我們優化了動量策略(等式2)的績效 ( ,,0)(μ,α,η0) 使用交叉熵代價函數(材料和方法)對有限的訓練數據集進行了比較,並將其性能與以下兩種由時間相關的η組成的實驗啟發式學習機制進行了比較。

論文中對加速度還有更詳細的公式給出,篇幅所限,本文就不做更多介紹了。

結果:在線訓練集由300個隨機選擇的示例組成:每個標籤以隨機順序出現30次。經過300個學習步驟,加速方法的性能優於動量法超過25%,測試精度分別從約0.43提高到0.54。

對於給定數量的網絡更新,結果表明,較小的示例集可產生更多信息。為了最大程度地提高在線場景(尤其是小型數據集)的測試準確性,平衡的示例集和平衡的時間訓練順序是重要的組成部分。

論文結論

基於連貫的連續梯度增加的η,針對小組的訓練示例,腦啟發式的加速學習機制優於現有的通用ML策略。在各種成本函數上運行(例如平方成本函數)均會出現一致的結果,但是性能會相對下降(見下圖)。

因為給定數據集的最大性能取決於所選的加速方法(見下圖),在培訓過程中調整學習方法可以提高績效。

但是,除了可能的用於更新η的高級非線性函數外,在網絡更新次數高的情況下,加速方法的最終調度和使性能最大化的受訓實例的排序也值得進一步研究。

實驗神經科學和ML的橋梁有望進一步推進利用有限的資料庫進行決策,這是許多方面的現實:人類活動、機器人控制和網絡優化

本文研究機構

巴伊蘭大學縮寫BIU,建立於1955年,位於以色列拉馬特甘,是一所公立大學,也是目前以色列規模第二大的學術研究機構。

參考連結:

研究人員重建了神經科學與人工智慧之間的橋梁:

https://techxplore.com/news/2020-04-rebuild-bridge-neuroscience-artificial-intelligence.html

論文參見:《科學報告》:腦實驗暗示適應機制優於通用AI學習算法

相關焦點

  • 意念加AI算法「復原」每個手指,智能義肢登上Nature子刊封面
    最近,瑞士洛桑聯邦理工學院(EPFL)展示的新技術卻讓科幻變成了現實,他們的研究還登上了最新一期自然雜誌子刊《Nature Machine Intelligence》的封面。近日,瑞士洛桑聯邦理工學院的研究人員開發出了一種全新的機械臂控制方法,它利用人工智慧為被截肢者提供前所未有的準確操縱能力。
  • 登上Nature子刊封面:英特爾神經晶片實現在線學習
    近日,來自英特爾和康奈爾大學的研究者宣布,團隊已經在神經形態晶片 Loihi 上成功設計了基於大腦嗅覺電路的算法,實現了在線學習和強記憶力能力。這項研究發表在最新一期自然雜誌子刊上《Nature Machine Intelligence》上,並成為封面文章。
  • 戴瓊海:深度學習遭遇瓶頸,全腦觀測啟發下一代AI算法
    在大會上,中國工程院院士戴瓊海做了主題為《人工智慧:算法·算力·交互》的特邀報告,從算力、算法與人機互動三方面展開了分享,指出光電智能計算是未來算力發展的一大候選,深度學習遭遇算力和算法瓶頸,全腦觀測對於啟發下一代AI算法至關重要,在人機互動的發展中,我們要謹記圖靈的教誨,完善AI倫理,並且機器視覺、觸覺的協同是一大技術重點。
  • 用反向傳播算法解釋大腦學習過程?Hinton等人新研究登Nature子刊
    在學習過程中,大腦會調整突觸以優化行為。在皮層中,突觸嵌入在多層網絡中,這導致我們難以確定單個突觸的調整對整個系統行為的影響。而反向傳播算法在深度神經網絡中解決了上述問題,不過長期以來人們一直認為反向傳播在生物層面上存在問題。儘管如此,神經科學的最新發展和神經網絡的成功激活了人們對反向傳播能否幫助進一步了解皮層學習的興趣。
  • Nature子刊批人工神經網絡:先天結構比後天訓練更重要
    最新一期Nature子刊上,就刊登了這樣一篇文章。美國冷泉港實驗室的神經科學家Anthony M. Zador,對當下人工神經網絡的研究思路進行了深刻反思與批判:大多數動物行為不是通過監督或者無監督算法就能模擬的。具體來說,動物天生具備高度結構化的大腦連接,使它們能夠快速學習。
  • Science子刊:外泌體破壞皮膚的機制
    然而,關於SJS/TEN中表皮細胞凋亡的分子機制知之甚少。2020年12月17日,第四軍醫大學西京皮膚醫院在 Science 子刊 Science Translational Medicine 雜誌在線發表題為Plasma exosomal miR-375-3p regulates mitochondria-dependent keratinocyte
  • AI賜子?學習數百萬個胚胎發育過程,算法可將試管嬰兒成功率提高3倍
    這一「輔助懷孕算法」的研究負責人Ron Maor說,其在各種現成的AI、機器學習和深度學習應用程式之上構建了自己的「定製」層。Maor說,這些工具「處理胚胎圖像存在自身的特點,這與大多數AI任務截然不同。」據IEEE報導,AiVF的ML技術涉及獲取在孵化器中創建發育中的胚胎的延時視頻,在五天的視頻中顯示了胚胎發育中的各種裡程碑階段。
  • 腦科學日報:Science子刊揭示嗜酒成癮之謎;老年聾的真正原因
    《Nature》子刊發布!全球獨一無二的資料庫,揭示人類和130種哺乳類動物大腦連通性守恆!來源:腦友記BrainUp以色列的研究人員對大約130種哺乳動物的大腦進行了先進的擴散MRI掃描,生成了一個全新的、全球獨一無二的資料庫。這項史無前例的研究,旨在調查130種哺乳動物的大腦連通性。
  • Nature 子刊重磅:騰訊與鍾南山團隊發布新冠危重症 AI 預測模型 Cox
    這項成果已在2020年7月15日發布於國際頂級期刊《Nature》子刊《Nature Communications》。模型代碼:https://github.com/cojocchen/covid19_critically_ill網站服務:https://aihealthcare.tencent.com/COVID19-Triage_en.html 微信小程序:
  • 南大成果接連登上Science子刊、Nature子刊
    在人腦處理的信息中,超過80%都是通過眼睛獲得的。人眼不僅可以進行信息的探測和同步處理,而且整體功耗極小(遠小於20瓦)。因此,構建一個可以媲美人眼、具備同步進行信息探測和處理功能的類腦視覺傳感器是人們一直追求的夢想,對於智能工業、自動駕駛、智能安防等應用的發展也至關重要。
  • Nature子刊重磅:騰訊 AI Lab 聯合研究成果 揭示男性脫髮的潛在...
    通過騰訊自研的提升蛋白質結構預測精度的新方法,聯合研究團隊首次解析了II型5a還原酶(SRD5A2)的三維結構,揭示了治療脫髮和前列腺增生的藥物分子「非那雄胺」對於該酶的抑制機制,這將有助於深化研究相關疾病的病理學機制及藥物優化。
  • Nature子刊重磅:騰訊 AI Lab 聯合研究成果,揭示男性脫髮的潛在病理學機制
    通過騰訊自研的提升蛋白質結構預測精度的新方法,聯合研究團隊首次解析了II型5a還原酶(SRD5A2)的三維結構,揭示了治療脫髮和前列腺增生的藥物分子「非那雄胺」對於該酶的抑制機制,這將有助於深化研究相關疾病的病理學機制及藥物優化。
  • 南京大學團隊取得重要進展,成果接連登上Science子刊、Nature子刊
    近日,南京大學物理學院繆峰團隊在類腦視覺傳感器方面取得重要進展,成果以&34;(基於柵極可調範德華異質結的可重構神經網絡視覺傳感器)為題於 2020年6月24日發表在《科學》雜誌子刊Science Advances上。
  • Science子刊:外泌體治療可顯著改善心臟恢復
    Science子刊:外泌體治療可顯著改善心臟恢復 2020-10-03 10:42 來源:澎湃新聞·澎湃號·湃客
  • 內核融合:GPU深度學習的「加速神器」
    【按:在深度學習「紅透」半邊天的同時,當前很多深度學習框架卻面臨著共同的性能問題:被頻繁調用的代數運算符嚴重影響模型的執行效率。本文中,微軟亞洲研究院研究員薛繼龍將為大家介紹能夠輕鬆玩轉計算性能的「加速神器」——內核融合,探討內核融合在加速深度學習上的主要方法以及當前面臨的主要挑戰。】
  • 浙江大學:最近連發2篇Science和多篇Nature子刊!
    在國家雙一流名單公布的最近一個多月裡,浙江大學在科研方面就取得了很大突破,連續發表2篇Science(含參與發表1篇)和5篇Nature子刊,上升勢頭可謂非常強勁。  這些論文來自浙大不同院系,包括生命科學研究院、醫學院、化學系、物理系、農學院等。
  • 宜遠智能CEO吳博:醫學影像的數據標註、算法方法與算力優化
    二、算法篇(31頁PPT)1.關於數據分割比例2.遷移學習3.框架選型:Pytorch、Caffe、TensorFlow、MXnet4.目標檢測用於面部皮膚疾病分析數據脫敏及預處理、皮膚疾病檢測5.目標檢測用於宮頸基液細胞分析
  • AI賜子?學習百萬個胚胎發育過程,算法將試管嬰兒成功率提高3倍
    國家政府部門發布的《中國不孕不育現狀調研報告》顯示,中國的不孕不育率從20年前的2.5%-3%,攀升到12.5%-15%左右,患者人數超過5000萬,也就是說,每8對夫婦中就有1對存在不孕不育問題。隨著試管嬰兒技術的發展,越來越多的不孕不育夫婦將其當作了最後的「救命稻草」。
  • 國內首發Nature子刊 Machine Intelligence論文:思想精妙,或對DNN...
    但是一旦學習階段結束,它所能做的操作就固化了,既難以方便的學習新的映射,也不能對實際環境中存在情境信息(比如自身狀態,環境變化、任務變化等)做出靈活的響應,難以滿足複雜多變的需求,即缺少情境依賴學習(contextual-dependent learning)的能力。
  • 靠一種樣本學習多種氣味 神經擬態晶片拉近AI與人腦距離
    通過堆疊晶片形成的神經擬態系統似乎讓我們看到了「機器可以和人一樣聰明」的希望,那神經擬態晶片及大規模集成系統的就緒,是否意味著「強認知、小樣本學習」的神經擬態計算有了規模商用的可能?神經擬態訓練無需大量樣本目前深度學習算法作為實現人工智慧的重要技術手段,被廣泛應用於各類人工智慧成果中。對於以深度學習算法為支撐的人工智慧成果,數據可以說是研究的血液。