深度神經網絡(DNN)是否模擬了人類大腦皮層結構?

2021-01-18 電子產品世界

  概要:人工智慧交融了諸多學科,而目前對人工智慧的探索還處於淺層面,我們需要從不同角度和層次來思考,比如人工智慧和大腦的關係。

本文引用地址:http://www.eepw.com.cn/article/201707/361915.htm

  神經元

  在深度學習領域,神經元是最底層的單元,如果用感知機的模型, wx + b, 加上一個激活函數構成了全部,輸入和輸出都是數字,研究的比較清楚。別的不說,在參數已知的情況下,有了輸入可以計算輸出,有了輸出可以計算輸入。

  但在神經科學領域,神經元並不是最底層的單位。

  舉例來說,有人在做神經元膜離子通道相關的工作。一個神經元的輸入,可以分為三部分,從其他神經元來的電信號輸入,化學信號輸入,還有編碼在細胞內的信號(興奮,抑制類型,這裡可以類比為 激活函數?),輸出也是三個,電輸出,化學輸出,改變自身狀態(LTP 長時程增強, LTD長時程抑制)。

  我們是否足夠了解神經元? 我個人十分懷疑這一點,前幾天還看到一個關於神經元的進展,大意是神經元不僅能對單一信號產生反應。還能對一定一定間隔的信號產生反應。。 神經元的底層編碼能力其實更強。我們神經科學發展了這麼久,可能真的連神經元都沒真正的搞清楚。

  在這另外說一句。 深度神經網絡裡面,大部分節點都是等同的,但是在人類神經網絡裡面,並不是這樣。不同的腦區,甚至腦區內部,神經元的形態都可以有很大的差異,如V1內部的六層就是基於神經元形態的區分。從這個角度,人類神經系統要更複雜一些。我個人並不否認每一種神經元可以用不同初始化參數的 節點來代替,但是目前來說,複雜度還是要比深度神經網絡要高。

  信號編碼方式

  再說編碼方式,神經科學裡面的 神經元是會產生0-1 的動作電位,通過動作電位的頻率來編碼相應的信號(腦子裡面的大部分是這樣,外周會有其他形式的),而人工神經網絡?大部分我們聽到的,看到的應該都不是這種方式編碼的,但是 脈衝神經網絡 這個東西確實也有,(去ASSC 開會的時候看到了一個很有趣的工作,在評論區簡單說了下,有興趣可以去看。)

  神經網絡的結構

  目前的深度神經網絡主要是三種結構, DNN(全連接的)、CNN(卷積), RNN(循環)。還有一些很奇怪的, 比如說...Attention 的?不好意思,文章還沒看,不敢亂說。

  DNN:

  

 

  CNN:

  

 

  出處: AlexNet

  RNN:

  

 

  出處: Understanding LSTM Networks

  http://colah.github.io/posts/2015-08-Understanding-LSTMs/

  神經科學裡面的網絡結構,此處以V1 為例:

  

 

  

 

  和大家想的不同,視覺區分了V1,V2,V3,V4,V5(MT),上面還有FFA, 和一些掌管更高級功能的腦區。在這裡面每一個小的視皮層裡面,並不是純由神經元互相連接構成的,仍然存在不同的層級結構。這裡去google 找了一張圖,不用管具體的文章,主要說明的是V1 的精細結構和連接關係。V1 的主要功能是 識別點和不同角度的線段(Hubel 和W 在上世紀50年代在貓上的工作),但是其實不止如此,V1 還對顏色有一定的感知。

  如果在這個層面作比較,我自己的理解是, 人類神經網絡是 DNN+ CNN + RNN 再加上脈衝作為編碼方式。層內更像DNN, 層間和CNN 很類似,在時間上展開就是RNN。

  好,我們繼續。

  訓練方式

  深度神經網絡的訓練方式主要是反向傳播,從輸出層一直反向傳播到第一層,每一層不斷修正出現的錯誤。但是大腦裡面並沒有類似反向傳播機制,最簡單的解釋,神經元信號傳遞具有方向性,並沒機會把信號返回上一層。舉個例子,我要拿起手邊的杯子,視覺發現向右偏移了一點,那我會自然而然的移動整個手臂向左一點,然後試著去重新抓住杯子。好像沒人是讓手指,手,最後是手臂朝杯子移動,甚至多次才能最後成功吧。在此引用下一篇文章裡面的圖。

  

 

  來源文章: Towards Biologically Plausible Error Signal Transmission in Neural Networks

  https://arxiv.org/abs/1702.07097

  我們的大腦,更像最後 DFA 的原理。出錯了,把誤差送到一個更靠近輸入的地方,然後重新訓練。

  記憶和遺忘

  提到記憶的話,這裡主要說的是LSTM, LSTM 的記憶儲存在每個節點的權重裡面,同時有專門的 遺忘門 控制遺忘速率。這些都是以數字的形式存儲的。

  在神經系統裡面,記憶的存儲是由一些腦區的突觸的形成和消失來存儲的。其實他們有一個比較共通的地方在於,他們在訓練過程中都是漸變的。得益於反向傳播機制和 神經系統的生物性,他們在訓練過程中和在不斷的學習過程中都只能以一個相對慢的速度發生改變,從學習速率角度來講,他們是比較相似的。

  然後我們來說遺忘。遺忘在LSTM 裡面是通過門來控制的,在神經系統裡面,我覺得是和STDP相關的,它的基礎是 Hebb 假說, Fire Together, Wire Together, 同步放電的神經元傾向於建立一個更強的連接。STDP 拓展了這一點,考慮了兩神經元放電的先後順序帶來的影響。

  

 

  來源:Synaptic Modification by Correlated Activity: Hebb's Postulate Revisited

  http://annualreviews.org/doi/abs/10.1146/annurev.neuro.24.1.139

  簡單來說,如果突觸前神經元放電先於突觸後神經元(神經元信號傳導具有方向性,從突觸前到突觸後),這個突觸會進入一個LTP 長時程增強狀態,會對來自突觸前的信號有更強的反應。反之,如果突觸前神經元放電後於突觸後,則會進入一個長時程抑制的狀態(說明他倆並沒有接收到相同來源的信號,信號不相關),一段時間的反應更弱。

  深度神經網絡裡面門的權重也是 反向傳播訓練出來的,也有漸變的這個性質,當對於快速變化的刺激,有一定的滯後。從這個角度來說,人類神經系統要更靈活一些,可以在很短的時間內完成狀態的切換。

  覺得想說的大概就是這些,因為我自己做的研究是 視覺注意,更多在人身上做,所以對於中間的環路級別的研究,並不是特別的熟悉。再往上,談到人類大腦皮層的工作,個人覺得做的十分的有限,對於大部分腦區,我們並不知道他們是怎麼工作的,只是能把不同的腦區和不同的功能對應起來(還不一定準)。在這個角度上談他們的異同是不太負責的。。容易被打臉。

  接下來我會試著邀請幾個朋友來說下環路這個級別的事情。然後會找其他同行幫我挑錯和補充。很多東西都是按照記憶寫的。一些東西不一定準確。。

  我的觀點

  正如在提綱裡面提到的。 對的答案往往類似,而錯誤的答案各有不同。地球上這麼多高等的生命都有類似的底層網絡結構,而其中的一種還發展出了這麼偉大的文明,神經網絡這個結構,至少已經被我們自己證明是一種有效的形式。但是是不是智能這個形式的全局最優解?我個人持懷疑態度。

  神經網絡是一個有效的結構,所以大家用這個結構做出一些很好的結果,我一定都不吃驚。但是如果談模擬的話,就是盡力要往這個方向靠。這點上,我個人並不是十分看好這種方式。我們向蝙蝠學習用聲音定位,發展的聲吶無論是距離還是效果都遠超蝙蝠。我們能超過蝙蝠的原因,第一是我們的技術有拓展性,底層原理共通的情況下,解決工程和機械問題,我們可以不那麼輕鬆但是也做到了探測幾千米,甚至幾十公裡。第二個原因就是我們需要而蝙蝠不需要,他們天天在山洞裡面睡覺。。哪用得著探測幾十公裡的距離,探到了也吃不著。

  其實人類大腦也很類似,大腦是一個進化的產物。是由環境不斷塑造而成的,人為什麼沒進化出計算機一樣的計算能力,因為不需要。但是其實反過來也有一定的共通的地方,大腦裡面的一些東西,我們也不需要,我們千百年來忍飢挨餓進化出的 對於脂肪攝入的需求,在兒童時期對於糖類攝取的需求。這麼說的話,我們對於大腦,同樣去其糟粕,取其精華不是更好嗎?

  我上面提到的是一個理想的情況,我們對大腦已經了解的比較透徹的,知道該去掉哪,留下哪。但是現在......可能還要走一段模擬的路子。

  總結一下,就是深度神經網絡和大腦皮層有共通的地方,但是並不能算是模擬。只是大家都找到了解題的同一個思路而已。

相關焦點

  • 深度神經網絡DNN是否模擬了人類大腦皮層結構
    在這另外說一句,深度神經網絡裡面,大部分節點都是等同的,但是在人類神經網絡裡面,並不是這樣。不同的腦區,甚至腦區內部,神經元的形態都可以有很大的差異,如V1內部的六層就是基於神經元形態的區分。從這個角度,人類神經系統要更複雜一些。我個人並不否認每一種神經元可以用不同初始化參數的 節點來代替,但是目前來說,複雜度還是要比深度神經網絡要高。
  • 模仿人腦視覺處理,助力神經網絡應對對抗性樣本
    自從深度學習只能識別支票和信封上的手寫字母以來,它已經取得了長足的進步。今天,深度神經網絡已經成為許多計算機視覺應用的關鍵組成部分,從照片和視頻編輯器到醫療軟體和自動駕駛汽車。神經網絡大致模仿了大腦的結構,已經更接近於像人類一樣看待世界。但是它們還有很長的路要走,而且它們在人類永遠不會犯錯的情況下也會犯錯。
  • 深度學習:神經網絡算法的昨天、今天和明天
    但是,深度學習還沒能全方面超越人類。相反,它的工作完全依賴於人類對算法的設計。深度學習從誕生到爆發用了大約五十年。從其發展歷程,我們可以窺見計算機科學家們的步步巧思,並從中探討其可能的發展方向。一、什麼是深度學習深度學習就是人工神經網絡(Artificial Neural Network)。
  • 大腦皮層神經網絡測量取得新突破
    大腦研究到目前為止僅能檢查大腦網絡的一部分。「連接組學」這一新領域正致力於測量不同大腦區域和動物中更大的迴路。由馬普腦科學研究所主任莫裡茲·赫爾姆斯特德領導的研究小組分析了一隻4周齡小鼠大腦皮層的活檢腦組織。該組織來自體感皮層,負責處理觸摸信息。
  • 一文讀懂 CNN、DNN、RNN 內部網絡結構區別
    在實際應用中,所謂的深度神經網絡DNN,往往融合了多種已知的結構,包括卷積層或是LSTM單元。但是如果說DNN特指全連接的神經元結構,並不包含卷積單元或是時間上的關聯。因此,如果一定要將DNN、CNN、RNN等進行對比,也未嘗不可。其實,如果我們順著神經網絡技術發展的脈絡,就很容易弄清這幾種網絡結構發明的初衷,和他們之間本質的區別。
  • 深度學習背後的基礎-神經網絡揭秘
    傳統統計機器學習不乏極為強大的算法, 從各種高級的線性回歸,SVM到決策樹隨機森林,它們的共同特點是把人類的學習過程直接轉化為算法。 但是沿著直接模擬人類學習和思維的路線, 我們是否可以走向人工智慧的終極大廈呢?答案是否定的。
  • Science:人類大腦皮層的結構受到哪些基因影響?
    人類的大腦皮層雖然只有3毫米厚,卻是高級認知功能的核心區域。
  • 神經記憶網絡技術白皮書NMN
    《神經記憶網絡技術白皮書》——基於仿生學原理的分布式數據分類、傳遞和存儲解決方案神經記憶網絡來源:origin仿生學原理仿生學(Bionics)是研究生物系統的結構、性狀、原理、行為,為工程技術提供新的設計思想、工作原理和系統構成的技術科學,是一門生命科學、物質科學、數學與力學、信息科學、工程技術以及系統科學等學科的交叉學科
  • 神經所發現大腦皮層維持其興奮和抑制平衡的新策略
    3月22日,《公共科學圖書館•生物學》(PLoS Biology)發表了中科院上海生命科學研究院神經所舒友生研究組的最新成果:大腦皮層維持興奮和抑制動態平衡的新機制,即神經元的膜電位水平可以調控反饋抑制的強度。該工作由朱潔、江漫、楊明坡和侯晗等合作完成。
  • 初探神經網絡與深度學習 —— 感知器
    【IT168 技術】人工神經網絡的第一個裡程碑是感知機perceptron, 這個名字其實有點誤導, 因為它根本上是做決策的。 一個感知機其實是對神經元最基本概念的模擬 ,都未必有多少網絡概念,他就是一個自動做決策的機器。
  • 從1立方毫米的大腦皮層中,解開人類思維的奧秘
    貝勒醫學院神經科學家安德烈亞斯·託利亞斯(Andreas Tolias)打了個比方:目前我們對大腦皮層的認知,就好比一張模糊的照片。他希望,Microns項目能使這張照片變得更加清晰,在神經迴路中發現更加複雜的規則。不掌握其所有構成部分,他說,「我們可能就看不到它的結構之美。」託利亞斯目前擔任科赫團隊的負責人之一。
  • 大腦的深度網絡結構簡析
    人的智能(如感知、語言、想像力、數學能力、藝術感等等)產生於大腦,而大腦皮層則是人腦形成智能的至關重要的部分,理解大腦皮層的結構和功能對我們更好地了解智能的產生具有重要意義。大腦皮層主要由神經元和神經膠質細胞組成。
  • sklearn 神經網絡預測專題及常見問題 - CSDN
    使用sklearn中神經網絡模型對數據集進行訓練和驗證。= MLPClassifier(hidden_layer_sizes=(50,50),random_state = 420) # 使用兩層,每層50個節點>>> dnn = dnn.fit(Xtrain,Ytrain)>>> pred_dnn = dnn.predict(Xtest)>>> score_dnn = ACCS(Ytest, pred_dnn
  • 百度大腦這樣思考:模仿人類大腦神經網絡
    原標題:百度大腦這樣思考:模仿人類大腦神經網絡   巴西世界盃足球賽激戰正酣,有爆冷出局的,也有意外晉級的。本屆比賽雖然沒有了「預言帝」章魚保羅,但是預測比賽結果已經有了新工具——能夠分析數據、學習思考的人工智慧。
  • 人工智慧-深度學習-神經網絡結構MLP,CNN,RNN,LSTM
    人工神經網絡、激活函數、代價函數、梯度下降、反向傳播是深度學習的幾個關鍵點;常見的深度學習神經網絡結構有多層感知器MLP、CNN、RNN、LSTM等。不管是哪種網絡結構,其根本還是從傳統的神經網絡、多層感知機發展而來的,介紹如下:MLP-Multilayer Perceptron 多層感知器也叫人工神經網絡(ANN,Artificial Neural Network),除了輸入輸出層,它中間可以有多個隱層,最簡單的MLP只含一個隱層,即三層的結構
  • 人工突觸模擬憶阻器研究取得進展,有助深度學習神經網絡發展
    基於馮·諾依曼架構的傳統數字計算機,其數據處理與存儲分離結構限制了其工作效率,同時帶來巨大功耗,無法滿足大數據時代下計算複雜性的需求。同時,上述缺陷也阻礙了深度學習神經網絡的進一步發展。而借鑑人腦神經突觸結構,構築結構簡單、低功耗、高低阻態連續可調的非易失性阻態憶阻器是實現類腦神經形態計算中至關重要的一步。目前,模仿生物神經系統中突觸間隙神經遞質釋放過程與電信號傳遞處理調控構建的多柵極人造神經元電晶體常表現出高低電阻態的突變。然而,基於二維材料的兩端電阻開關器件通常表現出從高電阻狀態到低電阻狀態的突變。
  • 最強大腦皮層神經網絡重建 揭哺乳動物最大神經線路圖
    最新Science雜誌封面,發布了知名的德國馬克斯·普朗克腦研究所的最新腦科學成果:他們七年磨一劍,重建了非常複雜的大腦皮層神經網絡,揭示了迄今為止最大哺乳動物神經線路圖。此前,人類只知大腦神經元的「樣子」,現在,哺乳動物神經元如何連接——首次得到揭秘,並實現了更大量級的大腦皮層神經網絡的重建。並且AI的方法在其中發揮重要作用,研究者還說,這種突破還可能進一步為AI發展提供指導:「揭開生物神經網絡連接秘密,或許可以進一步探明大腦高效計算原理。
  • 人工智慧系列(六) 深度學習中的神經網絡
    原力君在系列的第五篇《人工智慧系列(五) 深度學習簡介》中提到深度學習可以看作是一種更高級的函數擬合方法;人工神經網絡、激活函數、代價函數、梯度下降、反向傳播是深度學習的幾個關鍵點;常見的深度學習神經網絡結構有多層感知機、DNN、CNN、RNN等。
  • 科學家研發出大腦皮層類器官體
    科學家研發出大腦皮層類器官體 作者:小柯機器人 發布時間:2019/8/30 14:27:35 近日,加州大學聖地牙哥分校Alysson R.
  • IBM Research AI團隊用大規模的模擬存儲器陣列訓練深度神經網絡
    打開APP IBM Research AI團隊用大規模的模擬存儲器陣列訓練深度神經網絡 李倩 發表於 2018-06-16 16:15:00