重建腦科學與AI之間的橋梁,人工神經網絡比機器學習更優嗎?

2020-12-05 鈦媒體APP

圖片來源@全景視覺

文丨學術頭條

幾十年來,神經科學在人工智慧的研究歷程中起到了舉足輕重的作用,人工智慧的奠基人 Donald Hebb、Warren McCulloch、Marvin Minsky 和 Geoff Hinton 最初的研究動力均源自對他們大腦工作機理的濃厚興趣,當時的研究人員也一直試圖模仿大腦的功能,構建神經科學與人工智慧之間的橋梁。

1943 年,美國神經科學家麥卡洛克(Warren McCulloch)和邏輯學家皮茨(Water Pitts)在 「A Logical Calculus of Ideas Immanent in Nervous Activity」 一文中提出了神經元的數學模型,受人體大腦神經元的啟發,機器學習領域早期的重要算法 —— 人工神經網絡(Artificial Neural Networks)得以發展。

1949 年,加拿大神經心理學家 Donald Hebb 在《The Organization of Behavior》一書中首次提出的赫布理論,解釋了在學習過程中大腦神經元所發生的變化,這一理論為後期機器學習的研究提供了理論支撐。Hebb 提出學習是通過大腦中突觸強度的改變而進行的,一個突觸強度的改變通常持續數十分鐘,而一個神經元(節點)的時鐘速度大約為一秒。

然而,從那以後,實驗神經科學並沒有直接推動機器學習領域的發展,這兩門學科似乎都是獨立發展的。

4 月 23 日,巴伊蘭大學物理系和 Gonda(Goldschmied)多學科腦研究中心的 Ido Kanter 教授等人在《科學報告》雜誌上發表了一項最新研究成果,成功地在實驗神經科學和高級人工智慧學習算法之間重建橋梁。

研究人員根據 Hebb 的理論,通過一項新的神經元培養實驗,成功展示了一種受大腦啟發的人工神經網絡學習機制。該機制被用於手寫數字識別時,其成功率大大超過了傳統的機器學習算法。

Ido Kanter 教授說:"我們大腦中的一個學習步驟被認為通常會持續幾十分鐘甚至更久,而在計算機中,它的學習時間一般為納秒級。雖然大腦的速度極慢,但其計算能力卻超過了最先進的人工智慧算法,或者說可以與之相媲美,「

為了重建這一橋梁,研究人員最初作出兩個假設:

通常認為大腦學習是極其緩慢的假設可能是錯誤的;大腦的動力學系統可能包括加速學習機制。令人驚訝的是,這兩個假設經過實驗證明都是正確的。

研究人員採用機械和酶解程序在新生大鼠(Sprague-Dawley)出生後 48 h 內獲得其皮層神經元,作為培養對象。實驗是在培養的皮層神經元上進行的,這些神經元通過穀氨酸能和氨基丁酸能突觸的藥理阻斷而從它們的網絡中分離出來的。

所有實驗流程均按照美國國立衛生研究院的《實驗室動物護理和使用指南》和巴伊蘭大學的《實驗室動物護理和使用研究指南》進行,並得到巴伊蘭大學動物護理和使用委員會的批准和監督。

這項研究中,研究人員使用 5Hz 的刺激頻率,對樹突的適應性進行了實驗研究,訓練模式選取 0.5Hz-1Hz。將神經元培養物置於添加了突觸阻滯劑的多電極陣列上,突觸阻滯劑從細胞外通過樹突刺激一個修補過的神經元。適應過程包括一套 50 對刺激的訓練集。經過閾值以上的細胞內刺激後,細胞外刺激沒有達到預定的 1-4ms 的延遲。研究人員主要考慮了兩個獨立的樹突狀細胞激活神經元時,不同的細胞內外的波峰波形。

實驗研究表明,隨著訓練頻率的增加,我們大腦中的適應性會明顯加快。

論文第一作者 Shira Sardi 表示:"通過在一秒鐘內觀察 10 次相同的圖像進行學習,其效果不亞於在一個月內觀察 1000 次相同的圖像。重複相同的圖像能迅速增強我們大腦中的適應性,使我們的大腦在幾秒鐘而不是幾十分鐘內就能適應。有可能我們大腦中的學習速度更快,但超出了我們目前的實驗限制。「

這項研究的另一位作者 Roni Vardi 博士補充道,利用這種新發現的、受大腦啟發的加速學習機制,大大超過了常用的機器學習算法。如對於手寫數字識別,特別是在提供小數據集進行訓練的情況下,利用這種新發現的、受大腦啟發的加速學習機制,大大超過了常用的機器學習算法的運算速度。

重建從實驗神經科學到機器學習的橋梁,有望推進人工智慧的進一步發展,特別是在有限的訓練樣本下,類似於人類決策的許多情況,以及機器人控制和網絡優化,作出超快的決策。

參考資料:https://www.eurekalert.org/pub_releases/2020-04/bu-rrt042020.phphttps://www.nature.com/articles/s41598-020-63755-5

相關焦點

  • 最強大腦皮層神經網絡重建 揭哺乳動物最大神經線路圖
    最新Science雜誌封面,發布了知名的德國馬克斯·普朗克腦研究所的最新腦科學成果:他們七年磨一劍,重建了非常複雜的大腦皮層神經網絡,揭示了迄今為止最大哺乳動物神經線路圖。此前,人類只知大腦神經元的「樣子」,現在,哺乳動物神經元如何連接——首次得到揭秘,並實現了更大量級的大腦皮層神經網絡的重建。並且AI的方法在其中發揮重要作用,研究者還說,這種突破還可能進一步為AI發展提供指導:「揭開生物神經網絡連接秘密,或許可以進一步探明大腦高效計算原理。
  • 高清圖解:神經網絡、機器學習、數據科學一網打盡|附PDF
    來源:becominghuman.ai  編輯:元子  【新智元導讀】完全圖解人工智慧、NLP、機器學習、深度學習  今天,新智元要為大家推薦一個超實用、顏值超高的神經網絡+機器學習+數據科學和Python的完全圖解,文末附有高清PDF版連結,支持下載、列印,推薦大家可以做成滑鼠墊、桌布,或者印成手冊等隨手攜帶,隨時翻看。
  • 從Y = X到構建完整的人工神經網絡
    -327da18894af在某些時候,你也許曾問過自己,人工神經網絡的參數的來源是什麼?在本教程中,我們打算回答那些問題,我們從最簡單的人工神經網絡(ANN)做起,一直到複雜得多的模型。讓我們從構建一個沒有參數的機器學習模型開始,即Y=X。然後,我們將逐步增加一些參數到模型中,直到我們建立了一個單個神經元,這個神經元被設計成接收一個或多個輸入。接著,神經元從數學公式映射成圖形形式。通過連接多個神經元,就能生成一個完整的ANN。
  • 機器學習算法盤點:人工神經網絡、深度學習
    機器學習算法盤點:人工神經網絡、深度學習 佚名 發表於 2016-08-01 16:26:33   機器學習無疑是當前數據分析領域的一個熱點內容。很多人在平時的工作中都或多或少會用到機器學習的算法。
  • AI的人工神經網絡
    人工神經網絡是模擬人和動物的神經網絡的某種結構和功能的模擬,所以要了解神經網絡的工作原理,所以我們首先要了解生物神經元。其結構如下圖所示:   而人工神經網絡的基本原理也就是對生物神經元進行儘可能的模擬,當然,以目前的理論水平,製造水平,和應用水平,還與人腦神經網絡的有著很大的差別,它只是對人腦神經網絡有選擇的,單一的,簡化的構造和性能模擬,從而形成了不同功能的,多種類型的,不同層次的神經網絡模型。
  • 陳根:人工神經網絡成就AI小白鼠,試毒不再愁
    目前最為先進的人工智慧可以說就是人工神經網絡,人工神經網絡是仿生學的一個概念,是一類由多層神經元互聯組件構成的機器學習算法,而「神經元」最早就是來自大腦結構的啟發。儘管人工神經網絡中的神經元的工作方式肯定不同於實際人腦的工作方式,但越來越多的研究者認為,將二者放在一起研究不僅可以幫助我們理解神經科學,還有助於打造出更加智能的AI。
  • 人工神經網絡終於可以清晰地解讀人類基因調節
    Kinney和Ammar Tareen提出了一種設計高級機器學習算法的策略,這種算法可以更容易被生物學家理解。這種算法是一種人工神經網絡(ANN)。受大腦中神經元連接和分支方式的啟發,神經網絡是高級機器學習的計算基礎,不過雖然名字叫人工神經網絡,但人工神經網絡並不是專門用來研究大腦。
  • 計算神經科學:腦科學與人工智慧的必要橋梁
    視覺系統由很多「層」神經網絡組成(因此叫「深度網絡」)。神經信號經第一層處理後送至第二層,經第二層進一步處理後送至第三層,以此類推。層與層之間的網絡連接是通過學習訓練而形成的(故名「深度學習」)。深度學習系統在完成某些任務上(比如二維物體識別)已接近人的能力。然而目前這個理論還有相當大的局限。例
  • 人工智慧、機器學習、神經網絡和深度學習之間是什麼樣的關係?
    但是大家在關注或研究人工智慧領域的時候,總是會遇到這樣的幾個關鍵詞:深度學習、機器學習、神經網絡。那他們之間到底是什麼樣的關係呢?本文引用地址:http://www.eepw.com.cn/article/201806/381185.htm  先說人工智慧,人工智慧是在1956年一個叫達特茅斯會議上提出的。
  • 機器學習算法匯總:人工神經網絡、深度學習及其它
    算法類似性根據算法的功能和形式的類似性,我們可以把算法分類,比如說基於樹的算法,基於神經網絡的算法等等。當然,機器學習的範圍非常龐大,有些算法很難明確歸類到某一類。而對於有些分類來說,同一分類的算法可以針對不同類型的問題。這裡,我們儘量把常用的算法按照最容易理解的方式進行分類。
  • 金融領域裡的機器學習算法介紹:人工神經網絡
    神經網絡神經網絡(又稱人工神經網絡,英文為artificial neural networks,簡稱ANNs)是一種高度靈活的機器學習算法,它已被成功地應用於具有大量特徵的非線性複雜交互任務。神經網絡通常用於分類和回歸,但在強化學習中(可以是無監督的)也很重要。下表顯示了多元回歸和神經網絡之間的聯繫。
  • 什麼是人工神經網絡(ANN)?
    每天使用神經網絡的應用程式有很多,例如Google的翻譯服務,Apple的Face ID iPhone鎖和Amazon的Alexa AI驅動的助手。神經網絡也在其他領域的一些重要人工智慧突破背後,例如診斷皮膚和乳腺癌,讓目光投向自動駕駛汽車。人工神經網絡背後的概念和科學已經存在了數十年。
  • 3D 列印造出人工神經網絡,UCLA團隊實現全光學機器學習
    圖丨論文:All-optical machine learning using diffractive deep neural networks(利用衍射深度神經網絡的全光機器學習)「構建由光學元件堆疊成的固態人工神經網絡是一種非常有創新性的方法,」瑞士洛桑聯邦理工學院光學與電氣工程學院教授
  • 機器學習與人工智慧之六:人工神經網絡
    觀眾老爺這期講機器學習的神經網絡算法,本來小編想先介紹基於我們人類知識和規則的機器學習的,但想著打鐵要趁熱,上期我們將人類的視覺系統進行了建模,今天咱們了解一下機器學習的人工神經網絡算法,這樣能比對出機器與人的差異,也能深入理解人工智慧算法具體的實現和原理。
  • 院士說丨戴瓊海院士:搭建腦科學與人工智慧的橋梁
    腦科學被譽為「人類科學最後的前沿」,認識腦的奧秘是對人類的終極挑戰。而更重要的是,腦科學的發展將推動人工智慧科學從感知人工智慧到認知人工智慧的跨越。4月28日晚,戴瓊海院士做客第一期「探臻論壇」,以線上方式為大家帶來了一場題為「搭建腦科學與人工智慧的橋梁」的精彩講座。
  • 如何重建深層神經網絡的可塑性?
    ,深度學習的基本結構是深度神經網絡,它是一種人工神經網絡,人工神經網絡是一種應用類似於大腦神經突觸聯接的結構進行信息處理的數學模型。人腦大約由100億個神經元組成,而其中的每個神經元又與約100~10000個其他神經元相連接,如此構成一個龐大而複雜的神經元網絡。神經科學方法嘗試在人工智慧模型中重建人腦的某些機制。在這些機制中,可塑性在人腦許多學習過程發揮著關鍵作用嗎?我們可以在人工智慧主體中重建可塑性嗎?
  • 意義非凡的腦科學
    這些問題可以說與腦科學密切相關。腦科學研究不僅可以使我們理解認知、思維、意識和語言等腦功能原理,對人類認識自身有重大科學意義,還能夠對各種腦功能神經基礎進行解析,對有效診斷和治療腦疾病有重要臨床意義,腦科學所啟發的類腦研究也可以推動新一代人工智慧和新型信息產業的發展。
  • 科技:人工神經網絡的進步
    這些重大新故事中的一些與人工神經網絡有關,人工智慧研究中的一個相對較新的現象正在推動從娛樂到醫學等許多領域的各種進步。人工神經網絡依賴於這樣的思想:技術可以使用對應於個體人類神經元和神經元組的小單元來模擬人類大腦的生物學工作,以基於輸入產生輸出。
  • 人工神經網絡在區塊鏈技術中的應用是什麼
    人工神經網絡在解決分類、回歸、函數估計和降維等問題中非常有用。 腦回神經網絡 腦回神經網絡(CNNs)是一種神經網絡,旨在捕捉輸入數據中越來越複雜的特徵。 •腦回層:腦回層由一組立方形濾波器組成,這些濾波器通過計算兩者的點積與輸入數據腦回,形成所謂的腦回特徵映射。腦回層的目標是從輸入數據中提取特徵,並且通常在同一網絡中使用多個腦回層,以便在數據傳播時學習越來越複雜的特徵。 •池化層:池化層定期插入到腦回網絡中,負責縮小腦回特徵的空間大小。這樣做的主要原因是通過降維來降低處理數據所需的計算能力。
  • 蒲慕明:意義非凡的腦科學
    人腦是非常複雜的生物系統,擁有上千億個神經細胞(神經元);神經元之間有複雜的神經纖維連接,通過百萬億個連接點(突觸),形成神經網絡和主導各種腦功能的神經環路。過去一個多世紀以來,腦科學研究的主要進展是理解了神經信息在神經網路中傳遞和處理信息的基本原理。