解讀神經擬態計算:讓機器像大腦一樣"思考"

2021-01-15 中關村在線

  北京,五道口,早7點。不出意外,這裡又如往常一樣堵了個水洩不通。原本被用來疏導交通流量、提高道路通行能力,減少交通事故的紅綠信號燈,此時早已失去了原有的功能。每當遇到這種情況,如果想要使交通重新恢復順暢,一般情況下就只有兩種方法:一是等待交警來組織車輛進行疏通,另外一個就得靠熱心群眾來幫忙了。


  無論是經驗豐富的交警,亦或是首次遇到這種情況的菜鳥司機,雖然可能耗時不同,但最終應該都能順利疏通車流,使交通恢復正常。

  而原本被用來疏導交通流量、提高道路通行能力的紅綠信號燈,此時,依然「傻乎乎」的按照設定好的時間間隔來回變換,對於擁堵的交通毫無助益。

  警察、路人與交通燈,在交通中同樣扮演著疏通者的角色,但為什麼警察與路人最終能夠順利疏通車流,而交通燈卻不能呢?因為警察與路人是自然智能的擁有者,而控制交通燈變化的,只是慣常設定好的程序,不會隨機應變。

  近些年,人工智慧大潮迅速席捲全球。人工智慧相關技術與應用,已經逐漸滲透到各個領域。同時,隨著通信技術的發展、物聯網的發展、深度學習技術的發展,越來越多的「物」開始擁有「智慧」,比如能跟孩子交流的音箱、能夠自動調節亮度的電燈、能夠自動「判斷」白天還是夜晚的窗簾,亦或者能夠更加智能的疏通車流的交通信號燈等等。


人工智慧能解決堵車問題嗎?

  這些變化為大眾帶來更多便利的同時,也使我們處在了一個更加智能化的世界。但是,這樣所謂的智能就足夠了嗎?

  就像上面提到的堵車問題,即便五道口的紅綠燈接入物聯網、接入深度學習庫,在面對複雜的交通擁堵時,依然無法像人類那樣憑藉經驗去迅速疏導車流。這就是現階段絕大多數所謂的人工智慧設備為何無法真正被稱為「智能」的主要原因。

  那麼,有辦法讓機器像人一樣擁有或近似擁有自然智能,以應對突發狀況,甚至作出隨機應變嗎?


·深度學習有哪些局限性?

  時下,賦予機器以「智能」的手段通常是通過「機器學習」來實現的,而機器學習中最為大家所熟知的莫過於「深度學習」。

  在2016年之前,人工智慧領域大多使用有監督的深度學習方法。有監督的學習方法就是訓練者通過手工設定學習特徵的方法,來讓機器學會某件事情。這就像我們上小學的時候,大多數情況下是老師在教我們識字一樣,老師教的是什麼,我們就學什麼,很少去自己進行思考性的拓展學習。


有監督的深度學習就像是在給機器上課

  而近兩年,人工智慧領域開始大範圍使用無監督的深度學習方法。即讓機器通過從大數據中尋找規律、挖掘價值,去認識某些事物。這就像我們即便不知道一種花的確切名字是什麼,但通過歸納花這類植物的特徵,我們在遇見不同的花時,都至少知道它是花,而且在遇到相同的花時,我們也知道它們是相同的。雖然這個比喻不夠確切,但相信大家能明白它與有監督深度學習的區別。

  不過,雖然時下大都採用深度學習方法,通過數據挖掘來賦予機器以智能,但歸根到底,一種深度學習訓練方法訓練出來的機器,絕大多數情況下還是只能應對一類事物。況且深度學習只是在圖像和語音等富媒體的分類和識別上取得非常好的效果,它並非人工智慧的終極方法。

  最熟悉的例子莫過於谷歌AlphaGO,它是一款專注於圍棋的人工智慧,在沒有進行象棋相關的深度學習之前的時候,AlphaGO只能用來下圍棋。這就是現階段以深度學習方法為主的人工智慧行業所面臨的一個問題。


AlphaGO在圍棋界是大師,但在其它方面則是「智障

  但是在人類的願景中,要達到的是讓人工智慧變得和人一樣聰明,能夠應對不同種類的事件,甚至能夠在面對不同突發狀況時,迅速作出隨機應變的反應。現階段的深度學習方法、或更大一個範疇的機器學習很難達成這樣的結果。因此,需要讓機器在某種程度上具備接近自然智能、或具備真正自然智能的新的方法,來推動人工智慧在「智慧」層面的發展。而目前,神經擬態計算就是這樣一種神奇的技術。

·如何讓機器像人腦一樣工作

  要想了解神經擬態計算,那麼首先要了解自然智能。

  神經擬態學工程師、德國海德堡大學物理學家卡爾海因茨·邁耶(Karlheinz Meier)認為,人類的大腦相對於計算機而言有三大特性:

  其一、低能耗。人腦的功率大約是20瓦特,而當前試圖模擬人腦的超級計算機需要幾百萬瓦特;

  其二、容錯性。失去一個電晶體就能破壞一個微處理器,但大腦時刻都在失去神經元;

  其三、無須編程。大腦在與外界交互的過程中自發地學習和改變,而非遵循預設算法所限制的路徑和分支。

  這三大特性,尤其是第三項特性,使人類的智能與計算機、機器的智能區隔開來,形成了獨特的自然智能。


自然智能使人類能夠應對不同的突發狀況

  而神經擬態,就是科學家們為了實現這些目標,力求讓計算機去實現對人類大腦的模擬,同時了解大腦的工作機制,最終讓計算機或機器具備如人腦一樣的近自然智能特性,從而讓計算機或機器具備更低能耗、更加高效、容錯率更高的能力。

  當前,人類大腦單個神經細胞——即神經元——的工作模式大體上已被科學家們掌握,大腦中每個可見的腦葉和神經節的作用也已被探明,但是腦葉和神經節中的神經元如何組織依舊是個謎。科學家們認為神經元的組織方式決定了大腦的思考方式,同時也很可能是意識的存在方式。因此,想要實現神經擬態計算,首先就需要構建出一顆模擬大腦神經元工作的計算晶片。

  這就是神經擬態計算的核心原則。

  正如前面所言,如果說深度學習、機器學習是從大量有過標註的數據中去提取出來一些方式,來解決某一領域的問題的話,那麼神經擬態計算就是通過模擬人腦神經元工作機制,使人工智慧從數據的各種形態中提取出更多有價值的東西,而非只局限於某一領域。

  那麼有人可能就會問,「這樣做究竟有何意義呢?」

·神經擬態計算的意義在哪?

  我們還是回到現實中的堵車這件事上來。

  拋開人為因素造成的堵車不談。現在的交通燈都是預先進行了編程,什麼時候是紅燈,什麼時候是綠燈,以及怎麼切換,都是編程好的。但我們都知道,實際交通環境中,不同時間段、不同地點的車流量是完全不同的。明明車很多的時間段、或地點、或方向上,綠燈的時間不夠長,有的車為了少等幾個燈時,可能就會趁黃燈硬闖,車流量大的時候就很容易發生擁堵了。


普通交通燈不夠智能,無法應對越來越複雜的路況

  那麼如何讓交通燈變得更加智能,從而能夠應對不同時間、不同地點、不同方向上的不同車流,儘量避免因機械性的控制讓交通變得擁堵呢?

  如果靠機器學習的方法訓練出一個模型,可以通過某一種檢測的方法讓交通燈做這樣或那樣的變化,可能會有一定的效果,但並不會適用於所有的路口。這時候,其實最需要的是在每一個路口放一個人,警察、熱心群眾都可以,不需要有博士一樣的智商,甚至不需要有一定的經驗的人都可以幫助這個路口最大程度避免擁堵。但是如果這樣做的話,就太過勞民傷財了。

  而神經擬態計算,就能夠通過不斷的訓練完成這樣的事情。

  與深度學習、機器學習不同。如果給紅綠燈安裝一顆神經擬態計算晶片,那麼這個紅綠燈就可以從一個初始規則狀態開始學習,通過視覺的輸入,通過其它體系信息的輸入,逐漸「知道」怎麼樣按照當前的情況,自適應的去調整信號燈的切換,讓這個路口保持最大、最高效的通過率,以避免因車流大、綠燈時間短而造成路口堵塞的問題。

  其實在自動駕駛領域,類似的問題最為普遍。

  比如一輛自動駕駛汽車是通過深度學習來「了解」北京路況下如何駕駛的話,那麼它如果到了滿大街都是小三輪的其它城市,這輛自動駕駛汽車可能就傻眼了。而重新為這輛車制定一套當地的深度學習框架,又非常的費事。因此,就需要這輛車具備進一步的自主學習能力。不需要人為去重新制定方案,只要通過多次實際行駛中對新環境的數據分析和學習,就能適應新環境的路況規則,這就才是人工智慧想要達成的目標。

  而神經擬態計算正是模擬人腦結構,讓基於其的設備具有自主學習能力的技術。

  那麼神經擬態計算晶片是如何模擬人腦結構的呢?以英特爾的LOIHI晶片為例我們可以大致了解其中奧妙。

  人類大腦有800億神經元,每個神經元又可以跟上萬個神經元進行連接。怎麼讓一個系統和軟硬體結合的設備可以以人腦的方式去學習呢?LOIHI就是模擬腦神經元模式,把學習規則放入到每個神經元裡去進行學習。

  比如一個人不管是聰明還是不太聰明的人,其實都可以去學很多種技能,會說話,又會唱歌,又會寫字,又可以炒菜做飯,所有這些都是一個大腦解決的,沒有人會切換不同大腦來做不同事情。


人類可以同時掌握多項技能,甚至不需要經過特殊的訓練

  英特爾研發的LOIHI神經擬態計算晶片,就是首個可以自主學習的晶片。神經擬態計算不是馮·諾依曼體系結構上的計算——存儲體系:CPU主要負責運算,而取得的指令在存儲序列,數據也在存儲序列。任何的計算過程都是取指令、數據、算出來的結果又存在內存裡,這是標準的計算架構。

  神經擬態計算的計算和存儲是在一起的,會形成很多分布式的單元,而且採用了異步計算方式,這種計算方式與馮·諾依曼結構的同步時鐘驅動不同模塊工作的方式不同。

  比如英特爾LOIHI神經擬態計算晶片。它的整個晶片就像人類大腦,比如當你在聽歌的時候,其實只有一個區域在工作,不是所有都在負責聽歌這件事。神經擬態的好處是以很高的能效比解決一些計算問題,而且特別是一些比較複雜的問題,比如說稀疏編碼、詞典學習、約束滿足等等。

  其實神經擬態計算的出現,就是要解決那些現在機器學習都做不了的事情,而這些事情通過類腦晶片能夠得到很好的解決。

·神經擬態計算為何不具有取代性?

  神經擬態研究並非什麼新鮮事,但神經擬態落地到計算晶片上、落地到實際應用中,英特爾LOIHI實屬首例。LOIHI每一個單晶片包含128個核,每一個核可以實現布局多個神經元,每個神經元可以跟其它神經元產生互相連接。


英特爾的LOIHI神經擬態計算晶片

  LOIHI核芯裡面的神經元可以接收其它神經元發送的脈衝,與深度學習卷積神經網不同,LOIHI構成的是脈衝神經網。脈衝神經網同時處理時空信號,時間在裡面是一個訓練參數,脈衝早一點來和晚一點來,其訓練結果會產生差異。脈衝到達之後會驅動神經元裡面原本記憶和存儲的以往被激發過的某些狀況,如果剛好這個脈衝來的時候導致了現在可以被激活發出一個信號的話,那麼它就會發出一個信號給別的神經元,同時配合相應的算法,從而產生訓練和學習的過程,這也是LOIHI最底層的一種學習方式。

  引入時空信號處理器的特性,使得LOIHI晶片上的神經元裡面的很多參數都可被實時調整,這使得LOIHI在工作時可以修改自己,實現自主學習、自我學習的能力,這是其與之前所有晶片的根本差異。如果都是在深度學習框架下訓練好一個模型,然後放到一個晶片裡,那麼這個晶片工作的時候永遠都是原來的參數,不設定新的框架就不會再改變。而神經擬態計算晶片通過實時自主修改參數、並進行學習訓練,就可以很好的解決人工智慧的「智能」問題,使機器能夠更接近自然智能的處理方式。

·結語

  在深度學習、機器學習之後,到量子計算真正付諸實際應用之前,神經擬態計算堪稱推動人工智慧發展的重要手段。

  那麼既然更加先進的技術出現了,深度學習、機器學習就應該被淘汰掉嗎?筆者認為這種觀點並不正確。

  對於時下的人工智慧行業來說,多形態技術的存在有極大的必要性,機器學習在很多領域依然是目前最好的訓練、學習手段之一。而深度學習在圖像、語音等領域的應用效果,也並非其它方法可以輕易去替代。

  神經擬態計算的出現,給人工智慧發展開拓了一條新的道路。它與深度學習、機器學習、數據挖掘等技術之間並非是誰取代誰、誰淘汰誰的關係,而是互補共進的關係,只有將多種技術靈活的運用到人工智慧領域,這個行業才能真正的發展起來,才能真正成為惠及民生的產業。

相關焦點

  • ​神經擬態計算的「一小步」, AI發展的「一大步」
    正如人類從未停止過對外太空的探索一樣,科研人員對人工智慧(Artificial Intelligence)領域也從未停止過探索。如果說我們之前的探索是停留在人工智慧的「地球表面」,現在的科技進步、軟硬體的成熟正帶領我們進入人工智慧的新領域,即人工智慧的「外太空」。其中關鍵性技術——神經擬態計算的巨大突破就是一個重要的推進器。
  • 半月談|像大腦一樣思考:類腦計算機來了
    像大腦一樣思考:類腦計算機來了半月談作者 朱涵「春眠不覺曉。」「……處處聞啼鳥……」半月談記者對著一臺名為「Darwin Mouse」的計算機念出唐詩《春曉》膾炙人口的第一句,短暫的停頓後,它居然憑著自己的「記憶」,背完了整首詩。
  • Intel首款神經擬態晶片Loihi:功耗可比CPU低1000多倍
    和大腦一樣,所有計算都在晶片上進行,通過二進位脈衝信息和低精度信號,內存來源於晶片神經元之間的連接。Loihi採用同質架構,將許多小神經擬態核實例化,每個核的大小隻相當於針頭的一部分。英特爾在2015年開始對神經擬態的研究,以現代神經科學理解作為靈感開發了一種新型計算機架構,適合計算和處理大腦中各種智能工作負載。Mike Davies表示,相比傳統計算機架構,神經擬態架構完全模糊了內存和處理之間的界限。和大腦一樣,它利用的是數據連接、數據編碼和電路活動中所有形式的稀疏(sparsity)。處理就發生在信息到達時,二者同步進行。
  • 神經擬態架構性能已達CPU...
    在圓桌環節,英特爾中國研究院院長宋繼強與英特爾在神經擬態計算、機器編程領域的技術專家進行連線,分享英特爾在這兩大前沿領域的技術研發細節。此外,在線上活動結束後,宋繼強與智東西等少數媒體進行交流,分享其對前沿科技領域的看法與預判。
  • Intel:首款神經擬態研究晶片功耗可比CPU低1000多倍
    和大腦一樣,所有計算都在晶片上進行,通過二進位脈衝信息和低精度信號,內存來源於晶片神經元之間的連接。Loihi 採用同質架構,將許多小神經擬態核實例化,每個核的大小只有針頭的一部分。通過將神經擬態結構從幾核擴展到幾百核,將小型的專用工作負載擴展至 CPU 或 GPU 大小的晶片,甚至還可以無縫排列這些晶片,處理方法與 2020 年初發布的Pohoiki Springs 系統一樣,它採用 768 個 Loihi 晶片,並包含了 1 億個神經元,同時 Pohoiki Beach 是英特爾神經擬態研究工作的重要裡程碑。
  • Intel神經擬態系統支持1億個神經元:堪比小型哺乳動物
    一隻瓢蟲的大腦約有25-50萬個神經元,蟑螂大腦約有100萬個,斑馬魚大腦約有1000萬個,1億個神經元則相當於一個小型哺乳動物大腦的規模。Pohoiki Springs是一個數據中心機架式系統,在一個5臺標準伺服器大小的機箱中,集成了多達768塊Loihi神經擬態研究晶片,規模比以往擴展了750倍以上,同時功耗不到500瓦。
  • 英特爾Pohoiki Springs神經容量=小型哺乳動物大腦的大小
    Pohoiki Springs是一個數據中心機架式系統,是英特爾迄今為止開發的最大規模的神經擬態計算系統。它將768塊Loihi神經擬態研究晶片集成在5臺標準伺服器大小的機箱中。與大腦一樣,Loihi能用比傳統處理器快1,000倍的速度和高10,000倍的效率處理特定要求的工作負載。Pohoiki Springs是擴展Loihi架構的下一步,可用於評估其解決AI問題以及一系列計算難題的潛力。英特爾研究人員認為,與當今最先進的傳統計算機相比,神經擬態系統擁有超級並行性和異步信號傳輸能力,可以在明顯降低功耗的同時顯著提升性能。
  • 建造大腦完整接線圖,教會機器像人一樣理解世界
    「我們仍然有更靈活的思維,可以預見,想像和創造未來的事情。」一個由聯邦政府情報部門建立的雄心勃勃的新計劃,目的是使人工智慧技術更符合我們自己的智力。三支隊伍組成的神經學家和計算機科學家將嘗試找出大腦如何執行這些卓越的視覺識別,然後讓機器做相同的事。「今天的機器學習失敗在人類擅長的地方」 Jacob Vogelstein,IARPA項目負責人說。
  • 未來計算的形式會是怎樣的?
    在前幾日的英特爾研究院開放日上,英特爾公布了其在集成光電、神經擬態計算、量子計算、保密計算、機器編程五項新技術進展。量子計算方面,英特爾宣布推出第二代低溫控制晶片 Horse Ridge II,這標誌著英特爾在突破量子計算可擴展性方面取得新進展。可擴展性是量子計算的最大難點之一。
  • 人工智慧之問:機器能夠像人一樣思考嗎?
    簡單地說,就是如果一臺機器能夠在某些條件下如同人一樣把問題回答得很好,以至於在很長一段時間之內能迷惑提出該問題的人,使對方分不清給出答案的是機器還是人,這就可以認為這臺機器是能夠進行思維的。這種方式後來被命名為「圖靈測試」。這也可以看成是阿蘭圖靈對於「什麼是機器思維」的操作性定義,在這一概念上,國內外學者有這不同的觀點。
  • 樣本僅為傳統機器學習的1/3000,英特爾Loihi展示...
    英特爾研究院神經擬態計算實驗室高級研究科學家Nabil Imam與美國康奈爾大學的嗅覺神經生理學家展開合作。據Imam介紹,康奈爾大學的研究人員負責研究動物的生物嗅覺系統,並測量動物聞到氣味時的腦電波活動。
  • 神經擬態晶片上線,已超過傳統CPU的1000倍
    就在最近,英特爾正式對外分享了神經擬態研究的最新進展,這是否代表著英特爾將完成技術的逆襲呢?最近,英特爾正式和聯想、羅技、梅賽德斯·奔馳等公司開始合作,共同探索神經擬態計算在商業用例上的價值。早在2017年,英特爾發布了代號羅希的第一款自主學習神經擬態晶片,其包含128個小核心,而每個小核心有1000個神經元硬體,模擬多個「邏輯神經元」,相比AI訓練的通用晶片能效可以提升1000倍。
  • ...之江實驗室研製,億級神經元類腦計算機來了,可以「像腦一樣思考」
    潘綱介紹說,用硬體及軟體模擬大腦神經網絡的結構與運行機制,構造一種全新的人工智慧系統,這種顛覆傳統計算架構的新型計算模式,就是類腦計算。其特點在於存算一體、事件驅動、高度並行等,是國際學術界與工業界的研究焦點,更是重要的科技戰略,「類腦計算已被看作是解決人工智慧等計算難題的重要路徑之一。」
  • 重磅| 谷歌大腦養成記:從識別貓到突破性機器翻譯
    選自NYT機器之心編譯谷歌如何使用人工智慧來改進谷歌翻譯等許多谷歌服務?《紐約時報》雜誌今日發布了一篇重磅長篇《The Great A.I. Awakening》全面解讀谷歌利用機器學習重塑自身的戰略。機器之心編譯時進行了適當的刪減。
  • 面向智能時代 英特爾構建技術基石、驅動未來計算
    五十多年以來,英特爾一直致力於構建技術基石,引領計算的創新發展。面向數據時代,我們正在加速這一旅程。一方面,英特爾立足當前,基於六大支柱持續推動計算創新演進。另一方面,英特爾著眼未來,長遠布局神經擬態計算、量子計算等新型計算研究。英特爾正以指數級創新,驅動智能時代的創新變革。
  • 谷歌教AI畫畫:會讓它像人類那樣思考嗎?
    車輪變成了蹄狀,又或者說豬腳變得像車輪。如果你這麼畫,同為人類的我會主觀地認為這是對「豬卡車」很有創意的一種解讀。谷歌的AI繪畫系統SketchRNN直到最近,只有人類能夠完成這種概念轉變,但現在並不只有人類能夠做到了。該豬卡車實際上是極具吸引力的人工智慧系統SketchRNN輸出的作品,該系統是谷歌探究AI能否創作藝術的新項目的一部分。
  • 腦科學日報|1億神經元計算系統誕生;人類大腦皮層結構的遺傳基礎
    2,前所未有:1億神經元計算系統誕生,半導體巨頭新一代計算版圖初現來源:DeepTech深科技人類大腦由 860 億個互相連接的神經元組成。科學家們希望在晶片中也能儘可能多的複製這種連接。今天,英特爾宣布推出其最新神經擬態系統 Pohoiki Springs,首次將計算能力擴展到了 1 億個,將 Loihi 的神經容量增加到一個小型哺乳動物大腦的大小。Pohoiki Springs 是一個數據中心機架式系統,是英特爾迄今為止開發的最大規模的神經擬態計算系統。它將 768 塊 Loihi 神經擬態研究晶片集成在 5 臺標準伺服器大小的機箱中。
  • 神經形態計算何時帶領我們進入 AI 新時代?
    十年前,有這樣一個問題:軟硬體是否可以像生物大腦一樣工作靈感:尖峰和突觸神經形態計算始於使用模擬電路來模擬大腦中的突觸結構,大腦擅長通過噪音和學習確定模式, 神經形態 CPU 擅長處理離散、清晰的數據。
  • 改變自身的大腦——神經可塑性
    神經可塑性—大腦形成和重組突觸連接的能力,尤指對學習、經歷或受傷後的反應;大腦能夠在我們的一生中建立新的聯繫,在身體和功能上進行自我重組