(原標題:人工智慧的將來,是否就埋藏在大腦那些神經元突觸間美妙的電信號中?)
我們曾經說過,在人工智慧的研究中有一個流派,傾向於認為對大腦的恰當模擬會是製造出人工智慧的關鍵,但事實上,直到今天我們對人腦的工作原理的了解仍然十分粗淺,更談不上對它的精確模擬了。對大腦的研究、以及對以此為基礎的人工智慧的研究,早已脫離了單個學科可以應對的範疇,而需要多個學科領域之間的相互協作。或許只有最頂尖的人才才能理解,並最終推動這些領域的進步。
不過即使是我們目前對人腦非常淺薄的研究中得到的認知,也已經構成了一幅無比美麗的畫卷。這其中蘊含的奧妙讓我們絲毫不會懷疑,我們的大腦是世界上最精妙(同時居然是自然進化出來的)結構。而這些研究也告訴我們,無論是對人類的智能還是人工智慧,我們都尚有太多太多可能的潛力沒有挖掘出來。如果條件成熟、腦科學同計算機科學能夠更加緊密的結合起來,沒有人能想像將會爆發出多大的能量。
在剛剛結束的CCAI2016上,來自中國科學院的外籍院士、中國科學院神經學研究所長薄慕明院士給我們詳細講解了目前在神經科學領域研究的最新進展。其演講中體現出來的嚴謹的思路和實驗方法不禁讓人讚嘆,雷鋒網在此精編了整個演講實錄,並為大家做出了注釋,在大家閱讀的同時,不妨想像一下,在你閱讀的同時,你神奇的大腦內密密麻麻的神經細胞之間,又迸發出了怎樣的火花?
腦科學能為人工智慧帶來什麼?
演講者:蒲慕明
非常高興今天有機會能來參加這個會,今天我想把神經科學裡面的一些進展和我個人的一些看法給大家做個報告,希望能幫助到人工智慧的未來發展。
大腦的整體結構
首先從最簡單的講起,神經系統有兩大類,一是中樞神經系統,包括大腦、小腦、腦幹、脊髓,另一種是外周神經系統,主管知覺還有各種內臟自主神經系統。我們所說的腦科學主要專注於大腦,所以,腦科學是神經科學的一部分。而大腦最主要的部位就是大腦皮層,這是我們人類最發達的一個部位,大腦之下的很多結構,叫皮層下結構,是比較早期就出現了的,不過在進化中,從猴到猩猩到人,這個皮層的結構得到了極大的增長,這就是人類認知的主要來源。
腦科學最主要關注的質疑就是皮層的各種功能。現在我們已經知道,大腦皮層的各個部位是分管各種功能的,就是說,功能是分區的,你的哪個區域受損,就會喪失相應的腦功能。比如語言區域受損就不會說話,視覺皮層受損就會看不見,對此的實驗我們已經確認過很多次,形成公認的認知了:我們可以通過正電子成像的方法觀察大腦的活動——在正常人的大腦中注入葡萄糖,產生活動的地方就會有信號,我們在實驗中觀察到當被測者看到文字或別的東西的時候總是腦後部的一塊區域有活動,我們基本就可以確定這一塊是主管視覺的區域,我們讓他講幾句話,發現另外一個地方活動,那這個地方基本就是語言區。但是我們觀察到一個非常令人驚訝的現象,我們讓他不做任何事,光想像幾個字,這時我們會發現整個大腦皮層到處都是活動,這說明想像幾個字雖然看起來是個很簡單的事,但是實際上牽涉到了大腦的很多部位,到底為什麼會這樣我們至今還沒有弄清楚,所以我們說思考在腦科學上怎麼解釋,我們還是不清楚的。
正電子成像術是目前腦成像技術中應用的最廣的方法之一,通過注射含有微量不會影響人健康的放射性元素的葡萄糖,我們可以在大腦外部用儀器探測到其散發出的放射線,而大腦工作時會消耗能量,會吸收掉葡萄糖,也就是說此時我們只要觀察哪個區域的放射信號在變弱,就能判斷那個區域正在工作
「想像」會調用大部分腦神經結構的事實正好契合了一個假設:人的大腦的潛在運算能力其實非常強大,但人類在進行心算的時候其實是無法用最高效的手段完成計算的,因為人腦沒有那個能力。人腦會先將算式轉化成腦中抽象的概念,這需要調用到視覺中樞的功能,在模擬計算的時候我們又要調用許多高級功能,甚至在運算比較複雜的算式的時候,我們考慮退位、進位,還需要調用記憶功能。正是這種「低效」的計算方法才導致大腦的計算能力完全無法匹敵計算機。
不管是在對魚的或者對什麼動物的腦部實驗,還是對人的腦部實驗裡,我們都發現,即使他們在不做任何事情的時候,腦部也是有許多自發活動的,這些活動的意義是什麼,我們仍然不清楚。這是神經系統的研究目前面臨的一個大問題。
神經元與突觸
為了進一步的研究,我們把神經系統進行了切片。我們發現神經系統裡是密密麻麻的神經細胞,如果我們只染色其中的少數細胞,我們會在顏色交界處發現其實它們有很多網狀結構,這些網狀結構就是所謂的神經網絡,神經系統的功能都是靠這些來實現的。人的大腦有上千億個神經細胞,我們管它們叫神經元,通過它們之間的互相連接,我們得到了一個由百萬億計的連接組成的一個複雜的神經網絡,用來進行感知、運動、思維等各種功能,神經元是有結構的細胞,有輸入端也有輸出端,它的輸出端叫軸突,輸入端叫樹突
我們在這裡演示一個史丹福大學實驗室做的一個實驗,通過特定方法的螢光染色,我們發現小鼠大腦的內部有很規則的也有非常複雜的網絡,在這張圖中,皮層上方的結構排列比較整齊,下面的區域是另外一種樣式了。
我們剛才看到的叫做介觀層面(註:這是一種介於宏觀和微觀之間的尺度)。在這個層面我們可以最好的探究不同種類的神經細胞有什麼樣不同的作用。宏觀太大,而微觀又使他們之間的關係變得不明顯。繪出介觀層面的結構只是第一步,我們需要理解這裡面的功能,需要理解它們的功能信息處理和功能機制。在過去的許多年裡,我們對這個問題已經有了比較清楚的答案,而且這個過程中誕生了一連串的諾貝爾獎:細胞之間傳遞信息靠的是脈衝,其中包含的信息是由脈衝的頻率和時序決定的,而與幅度無關。脈衝在細胞內運動,而在細胞之間需要通信的時候,傳遞信息的細胞會從軸突上釋放出小泡,通過這些小泡中的化學物質產生離子流動造成電位變化,在膜外傳播到下一個接收細胞的樹突上,這個過程非常複雜,我們叫做化學突觸傳遞,由於過程經過了細胞外,因此這個過程是可以調節的,我們可以通過外接手段促進或者壓抑這個信號,從而幹預這個傳遞的過程和結果。
目前哪怕是做出一個200多層的好用的人工神經網絡都已經是值得大書特書一番的事情,而大腦中的神經元如果硬要分層,不知道可以分成多少層了,當然,雖然人工神經網絡的靈感來源於人的神經網絡,但它們的工作原理其實並不是很像。
生物好的小夥伴應該記得(當然如果忘記了也彆氣餒XD),在高中的生物書上學到神經元這一節的時候,老師應該拿麻醉劑舉過例子,麻醉劑的原理就是通過藥物堵塞神經細胞間的離子通道,讓代表痛覺的信號極少,乃至無法傳遞至我們的大腦中,從而達到暫時消除痛覺的目的,這正是這個傳播方式的典型案例。
另外,在每一個突觸釋放多少化學物質,接受多少化學物質,都可以改變,這讓突觸變得非常有可塑性。而這個突觸可塑性就是神經系統裡信息處理的非常重要的關鍵,也是我們說的認知學習的關鍵,化學物質在突觸產生的電信號我們叫突觸電位,興奮性突觸電位是使突觸後的膜電位有去極化下降,假如下降程度超過一個預值就發放脈衝,也就是神經要發出的信號,但有些物質產生超級化,就是使膜電位變的更高就會產生相反作用,一個神經元接收到數百個甚至上千個輸入,我們叫做EPSP跟IPSP的輸入疊加之後,決定最後是不是超過閾值,超過閾值就發放,發放之後就是信號整合,就傳到下一個神經元了,這是信息傳遞的原理。
環路、網絡、神經活動
接下來我們將更複雜一點的結構:環路。我們可以這樣理解:神經網絡的整體的互相連接叫網絡,而在網絡之間有很多各種特殊功能的路徑,這些路徑就叫環路。也就是說,神經環路的意思就是神經元上有特殊功能的網絡,也是軸突與樹突形成的,在這個網絡裡抑制性神經元有關鍵的作用。很多時候通過促進和抑制的共同作用,我們才能完成一些行為活動。
前面提到的這個神經可塑性,我個人認為是過去50年來對大腦的理解中最重要的理解,因為這個理解間接驗證了一個假說:60年前加拿大的心理學家海布(Donald Olding Hebb)提出了這個假說:如果兩個細胞間多次發生同步的電活動,那麼它們突觸間的連接就會加強或者說穩固,如果出現不同步的電活動,這些突觸就會削弱甚至消失,我們管它叫海布學習法則。可以理解為:如果大腦經常被同樣的東西刺激(在神經元間產生同樣的電信號),大腦就會對這個東西越來越敏感。這個說法在70、80年代得到了實驗證據:電活動可以造成突觸的長期強化或者長期弱化現象。如果你刺激高頻刺激突觸,維持一秒鐘,刺激後的突觸點位會比刺激前上升,而且這個上升的幅度可以維持很長一段時間,而如果使用低頻刺激,結果會是相反的,效率會下降,變得弱化。最近也有實驗室發現小鼠活體在進行學習的過程中,在神經元之間產生了新的突觸,後來經過觀察,這種新的突觸的產生在成年個體的大腦裡面也會出現,但是出現的頻率會遠小於發育過程中。
海布的這個假說非常了不起,神經元的可塑性也支持了他的假說。而這個假說進一步推理下去,還可以形成對感知記憶形成原理的一個假說:感知信息傳遞到大腦中之後,強化了一群神經元之間的聯繫,而這些被強化的聯繫其實就是記憶。這些被感知信息所刺激而加強的細胞叫海布細胞群,在這之後,由於它們之間的關聯性是非常強的,只要你能通過其中的一部分信息刺激它,就能通過這部分信息使整個細胞群重新開始活動。從而提取出所有記憶。
我們應該都有過這樣的體驗:如果我們主動去回憶我們記住了什麼東西,往往我們能想起的東西是非常少的,或許三天前的中午你吃過什麼你根本就想不起來,可是如果你有一天想起,或者有什麼額外的信息來源告訴你那天的中飯是跟一個很久沒有見面的好朋友一起吃的,可能在這個過程中你就把那天中午吃了什麼乃至其他一些亂七八糟的細節全部一起想起來了。這個現象很好的符合了這個假說的內容。
海布的假說有一個轉折,就像人工智慧的發展一樣,每隔一段時間就有個轉折。原來海布的假說裡說的同步,到底什麼叫同步,兩個神經元間放電的順序是怎樣,時間是怎樣?這個假說並沒有描述,所以後來很多實驗都表明海布的假說應該修正為一個時序的假說,突出前跟突出後的神經元的先後,就是突觸前要是比突觸後先有電活動就是強化,如果是後有電活動就是弱化。
發育的過程中網絡的形成是一件很重要的事,我們觀察到人活著很多哺乳動物剛出生之後是沒有什麼網絡的,神經元都有,但是它們之間的網絡是非常少的,大部分網絡都是在出生之後建立的,學習的過程也就是這個網絡變成一個複雜有效的網絡的過程,在發育期這樣新突觸的形成是非常頻繁的,網絡的複雜度增加的非常快。而成年後這個過程仍然會有,但會減少很多。因為大多數位置已經經過了改變,很少再有空間用來進行新的調節和新的突觸建立了。
下面終於講到人工智慧了。現在流行的深度學習其實就是基於人工神經網絡的一個很好的應用,而這些人工神經網絡都是從神經科學的一些規律中得到的靈感。通過結果反饋改進網絡中的參數。最終得到很好的結果,不過關於如何調整網絡,人工神經網絡和人的神經網絡是不一樣的,你要通過輸出改變輸入的效率,信息的傳遞是從輸入到輸出的方向的,你怎麼把輸出的信號傳回去呢?人的神經裡顯然不是用數學算法來做這個事的,神經系統沒有這個機制。
雷鋒網註:
因為人工神經網絡通常是通過通過對預期結果與實際結果的差值、節點權重等數據的運算後直接對節點進行調整的,但是突觸的結構決定了人的神經網絡中的信號傳遞只能是單向的,輸出信號如何反饋給輸入呢?蒲慕明和他的團隊做了一個實驗
我們培養了一群互相連接的細胞,就記錄其中四個細胞,他們之間有有16個連接,不過最開始這16個連接點其實只有9個連接點是有電活動的,我們就想改變其中一個連接點的強度,看他會不會影響其他的連接點,比如我們把這個連接E1到E2的連接增強,突觸電位增強出現了,但是我們發現除了開始的這9個連接,有4個其他的連接也增強了,這個連接增強也造成其他的連接增強,這證明突觸電位的改變確實有一個擴散,(輸出的信號通過某種方式傳遞到了輸入端去)我們對這個現象的規律進行了研究,非常開心的寫了一篇文章,這篇文章發表在1997年的Nature雜誌,題目叫做Propagation of activity dependent synaptic depression in simple neural networks,這篇文章創了兩個記錄,第一個是Nature長文,有10頁紙長,另外一個就是這篇文章是引用率最低的文章,因為當時沒人知道我們為什麼要做這個實驗,神經科學的人看到這個他不知道這個結果有什麼用,人工智慧的學者又不讀生物科學的文章,所以他的引用率是最低的,不過到今年現在慢慢開始上升了,我希望大家對這個重視,我們花了10年功夫證實突觸的增強、抑制的反向跟側向傳播是存在的,這個現象我覺得是相當有意思的,是不是我們在人工智慧上也可以應用這個機制呢?
人工智慧與腦神經科學的相互借鑑
我總結一下剛剛這些內容,在這裡提出5類人工智慧可能能從人類神經網絡裡借鑑的特性:
第一個特性,我們現在的人工神經網絡裡的節點沒有種類之分,我們所有的單元都是一樣的,但是神經系統的關鍵就是抑制性的神經元,沒有抑制性神經元很多功能無法出現,抑制性的跟興奮性的神經元還有亞型,不是說每一個單元都是同樣的性質,有些單元對高頻信號有輸出反應,對低頻沒有反應,亞型有各種信號傳遞的特性,這都是未來人工智慧可以考慮加進去的特性,
第二點是在神經網絡裡面有順向的,現在都是順向的網絡,但是也有逆向的網絡也有側向的網絡,這都可以是抑制性也可以是興奮性聯接,局部網絡裡面最關鍵三種網絡,一種是Feedback網絡,神經元被激活之後自己軸突輸出到旁邊的抑制性神經元回來抑制自己,所以他有控制,不是無限制不斷的高,他是可以壓制高幅度的電活動,第二種是Feed-forward,除了輸入興奮性神經元,同樣的輸入到旁邊的抑制性神經元,通過延遲這個信號抑制神經元,還有旁側的,把神經系統一連串的信息尖銳化,因為有一個抑制性延遲,所以開始的時候有信息,後面一連串的信息把後面消掉,所以就時間變的更準確,可以強化中間這個被刺激的神經元,通過側向的抑制使旁邊的下降,這樣子可以突出該強化的通路,把不該強化的通路壓下去,這些都是抑制性神經元造成的。
第三類最重要的可以借鑑的特性就是神經突觸可塑性,有功能的可塑性,就是效率的增強或減低LTP(突觸長時增強)跟LTD(突觸長時抑制),這是我們最常見的,這其中我們需要注意的是增強跟削弱的規律是什麼,我們可以依賴突觸前後電活動的頻率決定LTP或LTD,但也可以依賴時序,就是突觸前跟突觸後的電發放順序,這些可以思考如何在人工神經網絡裡做到類似的應用。還有一個就是結構可塑性,就是這個突觸尤其在發育過程中有新生的有修剪的,這個連接是可以變化的,而人工神經網絡的神經連接現在是不能變化的,而只能變突觸的權重。在計算所的實驗室裡我們已經把這個聯接可變性加入進去,發現有很好的效果,還有一個就是可塑性的傳播,LTD的傳播是我們的BP的來源,但是LTP為什麼不可以傳播,傳播為什麼一定要指定,可以有自己的逆向傳播、側向傳播,而且是可以自發的,不需要指令的神經元自己的有序的傳播來進行突觸的變化。
第四類,記憶儲存、提取與消退,按照我們說的假設,記憶是怎麼回事呢,就是突觸群在感知記憶或者其他記憶激活的時候之間聯接增強或者結構修剪,就是在進行處理的網絡上的儲存,他這個儲存的修飾在神經系統裡面會隨時間消退,LTP、LTD不是長期的,你來一次的話過一陣子幾十分鐘之後就不見了,這是有道理的,因為不是所有的突觸都可以強化,都可以弱化的,這樣子的話你得不到有意義的信息,所以他有遺忘,這個短期記憶長期記憶是同樣的網絡可以進行轉化,短期記憶就是可以消退的,有規則的重複性有意義的信息他可以把這個網絡之間突觸之間的強化和弱化轉化為長期的變化,結構上的變化,這就是神經系統的機制,記憶儲存是什麼,就是在這個網絡使部分突觸群的活動在線,就可以把這個記憶提取出來。人工智慧中的強化學習裡,現在是用算法來完成這個強化,但事實上我們可以考慮加入特別的神經單元來做這個功能。
最後就是海布的理論,最有興趣的一個集群概念,這個海布的神經元集群概念,就是嵌套的集群,可以用來做圖像的記憶,做概念的形成,這都是嵌套式集群,加入STDP之後可以變成時序,包括語言信息的儲存也是嵌套的,就是句子出現的時候產生的集群,這句話的集群跟另外一句話的集群不一樣,同樣的一個字一個語句,在不同的句子裡面意義不一樣,就是因為不同的集群裡面他產生了連接,所以這個集群可以把多成分多模態的信息放在一起,視覺的、聽覺、嗅覺的,都可以連在一起,不同模態的信息在網絡的不同區域處理,在神經網絡裡面自然網絡裡面把這些怎樣捆綁不同模態的信息呢,他就是用同步的活動在不同區域同時震蕩,或者震蕩有一個相差,一個先一個後,這也是同步來捆綁各種集群,輸入信息,在神經系統中這是很重要的圖譜,視覺系統不是亂輸入,而是有圖譜,有些圖譜結構已經用在人工網絡裡面開始使用了。
腦科學與類腦人工智慧的協同發展也是我們未來的前景,強調相互共同支撐、相互促進、共同發展,我是看到人工智慧BP神經網絡的出現,讓我想知道在自然網絡中有沒有自然形成的,不需要指令的BP算法,發現有這個現象,現在那個現象發現之後還沒有回饋應用到人工神經網絡上去,所以我說假如再回饋到人工神經網絡上,應該也可以發現這個特性很有用,我想說的是,我們應該就算是腦科學跟人工智慧結合的一個最好的例子,腦科學可以應用在人工神經網絡上,反過來也是可以的,為了有效結合這兩個領域,中國科學院去年成立了腦科學智能技術卓越創新中心,這個中心跟一般的中心不一樣,我們真的在一起工作,我們相信未來哪一個國家的人工智慧跟腦智能的融合協同發展進展最好,那個國家就最有前途,希望大家未來關心腦智中心的發展,我今天就講到這裡,謝謝。
後記
人類有太多的發明是從羨慕動物擁有的能力開始,從仿生結構開始發展一點一點的找到適合自己的最終產品形態的了。如果按照這條路來理解,人工智慧未嘗不能理解成人類羨慕完了所有的動物,終於開始想要模仿自己的最難的能力——智能了,之前的許多發明除了達到人類本身的願望外,還為人類帶來了許多未曾想到的附加值(舉個不是很恰當的例子:飛機剛出現時,曾經有多位身經百戰的高級軍官認定它在戰爭中發揮不了任何作用。),而人工智慧的出現,或許也能給我們帶來我們現在根本想像不到的附加價值。而且,與其說我們會被人工智慧所取代,更大的可能說不定是,就像現在的腦科學和計算機科學的緊密合作一樣,我們會與人工智慧形成一種取長補短的合作,甚至共生?我們究竟能不能在有生之年看到這一切的發生?且讓我們拭目以待。
題圖來自nipic.com