智東西 文 | 軒窗
最近,在AI領域無論是學術界的大咖還是行業的大佬,都在如火如荼的搞類腦晶片的研究,當然也取得了不少成果。日前,史丹福大學研究院電子與微系統技術實驗室的Jeehwan Kim教授在《自然》雜誌上發表了一篇論文,一時間引來了產學研三界的關注。原因是Jeehwan Kim教授與研究員們使用一種稱為矽鍺的材料研發了一款人工突觸晶片,可支持識別手寫字體的機器學習算法。無獨有偶,近日中國科學院自動化研究所類腦智能研究中心類腦信息處理(BRAVE)研究組也在借鑑生物神經結構的神經網絡建模與類人學習研究中取得了突破性的研究。
從計算機誕生起,人們就不斷要求它的計算能力提升,隨著晶片集成性越來越高,CPU與內存之間的性能差距越來越大。基於馮諾依曼結構的計算機結構呈現的缺點也愈加明顯,也有人稱這為內存牆,意思是說CPU再快,也要等內存。相比之下,人腦卻沒有此類問題出現,據研究表明,人類大腦平均每秒可執行 1 億億次操作,所需能量只有 10~25 瓦特。因而研究員們正轉向模擬人類大腦研究,試圖通過模擬人腦運轉機制,使計算機能低能耗高功效地進行計算,甚至使計算機優於類人的智能。
國內外有許多公司和機構正在類腦晶片研發上投入大量精力,美國在此項研究上開始較早,2014年IBM就推出了業內首款類腦晶片TrueNorth。國內最近幾年在晶片研發上也不甘示弱,也有西井科技這樣的初創公司投身到類腦晶片的研發中來,清華等知名高校也紛紛建立類腦研究中心。
相比於傳統晶片,類腦晶片的確在功耗上具有絕對優勢,拿英特爾在本次CES上展出的自我學習晶片Loihi來說,不僅其學習效率比其他智能晶片高100萬倍,而且在完成同一個任務所消耗的能源比傳統晶片節省近1000倍。類腦晶片的集成度也非常高,拿浙大推出的「達爾文」晶片來說,其面積為25平方毫米,也就是說邊長只有0.5釐米,但內部卻能包含500萬個電晶體。隨著行業對計算力要求越來越高,馮氏瓶頸將越來越明顯,顛覆傳統架構的類腦晶片已為晶片行業開啟了一扇新的大門。
一、傳統晶片遇馮·諾依曼瓶頸 模擬神經元成新思路
現代計算機基本都基於馮·諾依曼結構,它將程序和處理該程序的數據用同樣的方式分別存儲在兩個區域,一個稱為指令集,一個稱為數據集。計算機每次進行運算時需要在CPU和內存這兩個區域往復調用,因而在雙方之間產生數據流量。而隨著深度學習算法的出現,對晶片計算力的要求不斷提高,馮·諾伊曼瓶頸遇見明顯:當CPU需要在巨大的資料上執行一些簡單指令時,資料流量將嚴重降低整體效率,CPU將會在資料輸入或輸出時閒置。
不僅如此,傳統晶片還存在一個大問題就是效率低。晶片在工作時,大部分的電能將轉化為熱能,一個不帶散熱器的計算機,其CPU產生的熱量就可在短時間內將其自身融化。其他的智能化設備,也因晶片複雜耗能太高,導致續航能力差,不管如何改善工藝,高溫和漏電都是難以避免的問題。
為了解決CPU在大量數據運算效率低能耗高的問題,目前有兩種發展路線:一是延用傳統馮諾依曼架構,主要以3中類型晶片為代表:GPU、FPGA、ASIC;二是採用人腦神經元結構設計晶片來提升計算能力,已完全擬人化為目標,追求在晶片架構上不斷逼近人腦,這類晶片被稱為類腦晶片。
人腦神經元在接受到刺激後,其細胞膜內外帶電離子分布將發生變化,因而形成電位差,電位差將沿著神經細胞軸突、樹突雙向傳導,形成脈衝電流。而當該電信號傳遞到突觸時,突觸前神經元將釋放神經遞質(如多巴胺、腎上腺素)由突觸後神經元接受神經遞質產生興奮(該過程單向傳遞),並向下傳遞作用與人體反應器並發生反應。
類腦晶片架構就是模擬人腦的神經突觸傳遞結構。眾多的處理器類似於神經元,通訊系統類似於神經纖維,每個神經元的計算都是在本地進行的,從整體上看神經元們分布式進行工作的,也就是說整體任務進行了分工,每個神經元只負責一部分計算。在處理海量數據上這種方式優勢明顯,並且功耗比傳統晶片更低。比如IBM的TrueNorth晶片每平方釐米功耗消耗僅為20毫瓦。
二、類腦晶片雖面世 但大規模商用進展緩慢
相比於依靠馮諾依曼結構的GPU、FPGA、ASIC來說,類腦晶片是一種相對處於概念階段的集成電路。目前面世的類腦晶片並不多,更不要說大規模的商業化了。
美國為保持技術優勢,率先發起類腦計算晶片的相關研究工作,通過模仿人腦工作原理,使用神經元和突觸的方式替代傳統馮諾依曼架構體系,使晶片能夠進行異步、並行、低速和分布式處理信息數據,並具備自主感知、識別和學習的能力。因此市面上第一款類腦晶片就來自於美國的IBM公司。
1、IBM TrueNorth(SyNAPSE晶片)
2011年8月,IBM率先在類腦晶片上取得進展,他們在模擬人腦大腦結構基礎上,研發出兩個具有感知、認知功能的矽晶片原型。但因技術上的限制,IBM戲稱第一代TrueNorth為「蟲腦」。2014年TrueNorth第二代誕生,它使用了三星的28nm的工藝,共用了54億個電晶體,其性能相比於第一代有了不少提升。功耗每平方釐米消耗僅為 20 毫瓦,是第一代的百分之一,直徑僅有幾釐米,是第一代的十五分之一。
(IBM Truenorth晶片)
每個核都簡化模仿了人類大腦神經結構,包含256個「神經元」(處理器)、256個「軸突」(存儲器)和64000個突觸(神經元和軸突之間的通信)。總體來看,TrueNorth晶片由4096 個內核,100 萬個 「神經元」、2.56 億個 「突觸」 集成。此外,不同晶片還可以通過陣列的方式互聯。
IBM稱如果 48 顆TrueNorth晶片組建起具有 4800 萬個神經元的網絡,那這48顆晶片帶來的智力水平將相似於普通老鼠。
從2014年亮相後,這款晶片一直沒有大的動作。不久前,TrueNorth終於傳出了新進展,有報導稱IBM公司即將開發由64個「TrueNorth」類腦晶片驅動的新型超級計算機。這一計算機能進行大型深度神經網絡的實時分析,可用於高速空中真假目標的區分,並且功耗比傳統的計算機晶片降低4個數量級。如果該系統功耗可以達到人腦級別,那麼理論上就可以在64顆晶片原型基礎上進一步擴展,從而能夠同時處理任何數量的實時識別任務。
2、英特爾Loihi晶片
(英特爾神經擬態晶片Loihi)
幾日前的CES上晶片巨頭英特爾展示了其首款自學習神經元晶片Loihi,去年9月英特爾就曾宣稱歷時十年研究設計出了這款晶片的原型。Loihi晶片可以像人類大腦一樣,通過脈衝或尖峰傳遞信息,並自動調節突觸強度,通過環境中的各種反饋信息,進行自主學習、下達指令。據英特爾方面稱Loihi內部包含了128個計算核心,每個核心集成1024個人工神經元,總計13.1萬個神經元,彼此之間通過1.3億個突觸相互連接。
相比於人腦內的800多億個神經元,Intel這款晶片的運算規模僅僅比蝦腦大一點。但根據英特爾給出的數據Loihi的學習效率比其他智能晶片高100萬倍,而在完成同一個任務所消耗的能源可節省近1000倍。
3、高通Zeroth晶片
晶片巨頭高通也在進行類腦晶片的研發,早在2013年高通就曾公布一款名為Zeroth的晶片,Zeroth不需要通過大量代碼對行為和結果進行預編程,而是通過類似於神經傳導物質多巴胺的學習(又名「正強化」)完成的。高通為了讓搭載該晶片的設備能隨時自我學習,並從周圍環境中獲得反饋,還為此開發了一套軟體工具。在公布的資料中高通還用裝載該晶片的機器小車進行了演示,使小車在受人腦啟發的算法下完成尋路、躲避障礙等任務。
國內也開始了類腦晶片的研究,除清華等知名高校開設研究院外,也出現了專注類腦晶片研發的創企,代表企業如上海的西井科技。
4、西井科技DeepSouth晶片
西井科技是國內研究類腦強人工智慧的公司,目前西井已推出了自主研發的擁有100億規模的神經元人腦仿真模擬器(Westwell Brain)和可商用化的5000 萬類腦神經元晶片(DeepSouth)兩款產品。 DeepSouth 是一款可商用化的晶片,它能模擬出高達 5000 萬級別的「神經元」,總計有 50 多億「神經突觸」。據西井CEO譚黎敏稱,該晶片除了具備「自我學習、自我實時提高」的能力外,還可以直接在晶片上完成計算,不需要通過網絡連接後臺伺服器,可在「無網絡」情況下使用。
能耗方面,DeepSouth 在同一任務下的功耗僅為傳統晶片的幾十分之一到幾百分之一。
5、浙大「達爾文」類腦晶片
(浙大和杭州電子科技共同研發的「達爾文」晶片)
2015年一群來自浙江大學與杭州電子科技大學的年輕的研究者們研發出一款成為達爾文的類腦晶片。這款晶片是國內首款基於矽材料的脈衝神經網絡類腦晶片。「達爾文」晶片面積為25平方毫米,比1元硬幣還要小,內含500萬個電晶體。晶片上集成了2048個矽材質的仿生神經元,可支持超過400萬個神經突觸和15個不同的突觸延遲。
據研發團隊介紹說,這款晶片可從外界接受並累計刺激,產生脈衝(電信號)進行信息的處理和傳遞,這如我們前面提到的人類神經元間的信息傳遞一樣。研發人員還為「達爾文」開發了兩款簡單的智能應用。一是這款晶片可識別不同人手寫的1-10這10個數字,二是「達爾文」在接受了人類腦電腦後,可控制電腦屏幕上籃球的移動方向。在熟悉並學習了操作者的腦電波後,「達爾文」會在後續接受相同刺激時做出同樣反映。
6、AI-CTX晶片
此外,國內也出現了一些小型的類腦晶片研究團隊,如AI-CTX團隊。據稱他們目前設計出了一款類腦晶片模型,不僅每個神經元都具有跟人腦神經元類似的電學特徵與動態參數,具有簡單的運算與存儲功能。他們還採用了一種特殊的布線方式,使各晶片之間的交流突破物理限制,進而增加晶片群組的原有網絡。這一晶片不適合處理靜態硬碟數據,但擅長處理如溫度、氣壓、人體信號、loT等包含時間參數的數據。
雖然目前市面上出現了幾款類腦晶片,但其在計算力上還不及傳統架構晶片快。為了提升計算機對大規模數據的運算效率,晶片企業現在最常見的做法就是基於傳統晶片架構,搭載人工神經網絡,從功能上模擬人腦計算的GPU、FPGA·、ASIC三種晶片,加上類腦晶片,並稱為AI晶片。智東西曾利用過去的一年時間,深入到晶片產業鏈上下遊,遍訪AI晶片各大公司以及創企,並進行過詳細細緻的報導。深入企業涉及英偉達、谷歌、聯發科等。
三、類腦計算成新方向
人腦的這三大特性始終是計算機無法比擬的:一是低能耗,人腦的功率大約為20瓦,而目前計算機功耗需要幾百萬瓦;二是容錯性,人腦時刻都在失去神經元,而計算機失去一個電晶體就會破壞整個處理器;三是無需編程,大腦在於外界交互過程中自發學習和改變,並非遵循預先設計好的算法。
中國也十分重視類腦研究,並將類腦計算作為國家戰略發展的制高點。中國不僅在2015年將腦計劃作為重大科技項目列入國家「十三五」規劃,還發布了關於腦計劃「一體兩翼」的總體戰略:一體即認識腦:以闡釋人類認知的神經基礎為主體和核心;兩翼即保護腦:預防、診斷和治療腦重大疾病和模擬腦:類腦計算。
中國的學術界也展開了對類腦的研究,2015 年中科院、清華、北大,相繼成立「腦科學與類腦智能研究中心」,2017年5月在合肥成立了類腦智能技術及應用國家工程實驗室。這些實驗室將借鑑人腦機制攻關人工智慧技術,推進類腦神經晶片、類腦智慧機器人等新興產業發展。
結語:類腦晶片或將賦予機器智能
目前,搭載神經網絡引擎的晶片層出不窮,晶片巨頭和初創們都在原有的馮諾依曼架構上爭相利用神經網絡優化晶片計算力。從目前這類AI晶片的表現上看,FPGA的靈活性較好但開發難度大,ASIC因其功耗低、開發難度適中將在終端AI晶片上具有較大優勢。
類腦晶片不僅能提高計算機的計算速度、降低功耗,其在國防領域也將發揮重要作用,對研發高度自主性的智慧機器人以及提高其他設備的智能水平也有重要意義。就讓機器實現智能這一人工智慧終極理想來說,從人類自身結構出發是一可選思路,但並非僅此一種。
從現在各大公司的研究成果來看,像IBM TrueNorth這樣的類腦晶片運行的效率還不及以上提到的在傳統架構上運用神經網絡的晶片。但馮諾依曼瓶頸是客觀存在的事實,隨著運算數據量的增加,這一短板將越來越明顯。
而人腦也的確憑藉低功耗、高運算力成為計算機晶片研發學習的方向,但短期內類腦晶片還難以表現出其優勢,或許隨著對人腦研究的深入,會有人像牛頓一樣被「上帝的蘋果」砸中,從而擁有敲開具有高速運算力的類腦晶片領域的敲門磚。或許現在的傳統架構加神經網絡晶片就是像牛頓的萬有引力定律一樣適用於數據量較大的運算,而類腦晶片像愛因斯坦的相對論一樣在實現機器智能上更具潛力。