衝破摩爾定律,類腦晶片怎樣使機器超越人腦

2020-12-04 智東西

智東西 文 | 軒窗

最近,在AI領域無論是學術界的大咖還是行業的大佬,都在如火如荼的搞類腦晶片的研究,當然也取得了不少成果。日前,史丹福大學研究院電子與微系統技術實驗室的Jeehwan Kim教授在《自然》雜誌上發表了一篇論文,一時間引來了產學研三界的關注。原因是Jeehwan Kim教授與研究員們使用一種稱為矽鍺的材料研發了一款人工突觸晶片,可支持識別手寫字體的機器學習算法。無獨有偶,近日中國科學院自動化研究所類腦智能研究中心類腦信息處理(BRAVE)研究組也在借鑑生物神經結構的神經網絡建模與類人學習研究中取得了突破性的研究。

從計算機誕生起,人們就不斷要求它的計算能力提升,隨著晶片集成性越來越高,CPU與內存之間的性能差距越來越大。基於馮諾依曼結構的計算機結構呈現的缺點也愈加明顯,也有人稱這為內存牆,意思是說CPU再快,也要等內存。相比之下,人腦卻沒有此類問題出現,據研究表明,人類大腦平均每秒可執行 1 億億次操作,所需能量只有 10~25 瓦特。因而研究員們正轉向模擬人類大腦研究,試圖通過模擬人腦運轉機制,使計算機能低能耗高功效地進行計算,甚至使計算機優於類人的智能。

國內外有許多公司和機構正在類腦晶片研發上投入大量精力,美國在此項研究上開始較早,2014年IBM就推出了業內首款類腦晶片TrueNorth。國內最近幾年在晶片研發上也不甘示弱,也有西井科技這樣的初創公司投身到類腦晶片的研發中來,清華等知名高校也紛紛建立類腦研究中心。

相比於傳統晶片,類腦晶片的確在功耗上具有絕對優勢,拿英特爾在本次CES上展出的自我學習晶片Loihi來說,不僅其學習效率比其他智能晶片高100萬倍,而且在完成同一個任務所消耗的能源比傳統晶片節省近1000倍。類腦晶片的集成度也非常高,拿浙大推出的「達爾文」晶片來說,其面積為25平方毫米,也就是說邊長只有0.5釐米,但內部卻能包含500萬個電晶體。隨著行業對計算力要求越來越高,馮氏瓶頸將越來越明顯,顛覆傳統架構的類腦晶片已為晶片行業開啟了一扇新的大門。

一、傳統晶片遇馮·諾依曼瓶頸 模擬神經元成新思路

現代計算機基本都基於馮·諾依曼結構,它將程序和處理該程序的數據用同樣的方式分別存儲在兩個區域,一個稱為指令集,一個稱為數據集。計算機每次進行運算時需要在CPU和內存這兩個區域往復調用,因而在雙方之間產生數據流量。而隨著深度學習算法的出現,對晶片計算力的要求不斷提高,馮·諾伊曼瓶頸遇見明顯:當CPU需要在巨大的資料上執行一些簡單指令時,資料流量將嚴重降低整體效率,CPU將會在資料輸入或輸出時閒置。

不僅如此,傳統晶片還存在一個大問題就是效率低。晶片在工作時,大部分的電能將轉化為熱能,一個不帶散熱器的計算機,其CPU產生的熱量就可在短時間內將其自身融化。其他的智能化設備,也因晶片複雜耗能太高,導致續航能力差,不管如何改善工藝,高溫和漏電都是難以避免的問題。

為了解決CPU在大量數據運算效率低能耗高的問題,目前有兩種發展路線:一是延用傳統馮諾依曼架構,主要以3中類型晶片為代表:GPU、FPGA、ASIC;二是採用人腦神經元結構設計晶片來提升計算能力,已完全擬人化為目標,追求在晶片架構上不斷逼近人腦,這類晶片被稱為類腦晶片。

人腦神經元在接受到刺激後,其細胞膜內外帶電離子分布將發生變化,因而形成電位差,電位差將沿著神經細胞軸突、樹突雙向傳導,形成脈衝電流。而當該電信號傳遞到突觸時,突觸前神經元將釋放神經遞質(如多巴胺、腎上腺素)由突觸後神經元接受神經遞質產生興奮(該過程單向傳遞),並向下傳遞作用與人體反應器並發生反應。

類腦晶片架構就是模擬人腦的神經突觸傳遞結構。眾多的處理器類似於神經元,通訊系統類似於神經纖維,每個神經元的計算都是在本地進行的,從整體上看神經元們分布式進行工作的,也就是說整體任務進行了分工,每個神經元只負責一部分計算。在處理海量數據上這種方式優勢明顯,並且功耗比傳統晶片更低。比如IBM的TrueNorth晶片每平方釐米功耗消耗僅為20毫瓦。

二、類腦晶片雖面世 但大規模商用進展緩慢

相比於依靠馮諾依曼結構的GPU、FPGA、ASIC來說,類腦晶片是一種相對處於概念階段的集成電路。目前面世的類腦晶片並不多,更不要說大規模的商業化了。

美國為保持技術優勢,率先發起類腦計算晶片的相關研究工作,通過模仿人腦工作原理,使用神經元和突觸的方式替代傳統馮諾依曼架構體系,使晶片能夠進行異步、並行、低速和分布式處理信息數據,並具備自主感知、識別和學習的能力。因此市面上第一款類腦晶片就來自於美國的IBM公司。

1、IBM TrueNorth(SyNAPSE晶片)

2011年8月,IBM率先在類腦晶片上取得進展,他們在模擬人腦大腦結構基礎上,研發出兩個具有感知、認知功能的矽晶片原型。但因技術上的限制,IBM戲稱第一代TrueNorth為「蟲腦」。2014年TrueNorth第二代誕生,它使用了三星的28nm的工藝,共用了54億個電晶體,其性能相比於第一代有了不少提升。功耗每平方釐米消耗僅為 20 毫瓦,是第一代的百分之一,直徑僅有幾釐米,是第一代的十五分之一。

(IBM Truenorth晶片)

每個核都簡化模仿了人類大腦神經結構,包含256個「神經元」(處理器)、256個「軸突」(存儲器)和64000個突觸(神經元和軸突之間的通信)。總體來看,TrueNorth晶片由4096 個內核,100 萬個 「神經元」、2.56 億個 「突觸」 集成。此外,不同晶片還可以通過陣列的方式互聯。

IBM稱如果 48 顆TrueNorth晶片組建起具有 4800 萬個神經元的網絡,那這48顆晶片帶來的智力水平將相似於普通老鼠。

從2014年亮相後,這款晶片一直沒有大的動作。不久前,TrueNorth終於傳出了新進展,有報導稱IBM公司即將開發由64個「TrueNorth」類腦晶片驅動的新型超級計算機。這一計算機能進行大型深度神經網絡的實時分析,可用於高速空中真假目標的區分,並且功耗比傳統的計算機晶片降低4個數量級。如果該系統功耗可以達到人腦級別,那麼理論上就可以在64顆晶片原型基礎上進一步擴展,從而能夠同時處理任何數量的實時識別任務。

2、英特爾Loihi晶片

(英特爾神經擬態晶片Loihi)

幾日前的CES上晶片巨頭英特爾展示了其首款自學習神經元晶片Loihi,去年9月英特爾就曾宣稱歷時十年研究設計出了這款晶片的原型。Loihi晶片可以像人類大腦一樣,通過脈衝或尖峰傳遞信息,並自動調節突觸強度,通過環境中的各種反饋信息,進行自主學習、下達指令。據英特爾方面稱Loihi內部包含了128個計算核心,每個核心集成1024個人工神經元,總計13.1萬個神經元,彼此之間通過1.3億個突觸相互連接。

相比於人腦內的800多億個神經元,Intel這款晶片的運算規模僅僅比蝦腦大一點。但根據英特爾給出的數據Loihi的學習效率比其他智能晶片高100萬倍,而在完成同一個任務所消耗的能源可節省近1000倍。

3、高通Zeroth晶片

晶片巨頭高通也在進行類腦晶片的研發,早在2013年高通就曾公布一款名為Zeroth的晶片,Zeroth不需要通過大量代碼對行為和結果進行預編程,而是通過類似於神經傳導物質多巴胺的學習(又名「正強化」)完成的。高通為了讓搭載該晶片的設備能隨時自我學習,並從周圍環境中獲得反饋,還為此開發了一套軟體工具。在公布的資料中高通還用裝載該晶片的機器小車進行了演示,使小車在受人腦啟發的算法下完成尋路、躲避障礙等任務。

國內也開始了類腦晶片的研究,除清華等知名高校開設研究院外,也出現了專注類腦晶片研發的創企,代表企業如上海的西井科技。

4、西井科技DeepSouth晶片

西井科技是國內研究類腦強人工智慧的公司,目前西井已推出了自主研發的擁有100億規模的神經元人腦仿真模擬器(Westwell Brain)和可商用化的5000 萬類腦神經元晶片(DeepSouth)兩款產品。 DeepSouth 是一款可商用化的晶片,它能模擬出高達 5000 萬級別的「神經元」,總計有 50 多億「神經突觸」。據西井CEO譚黎敏稱,該晶片除了具備「自我學習、自我實時提高」的能力外,還可以直接在晶片上完成計算,不需要通過網絡連接後臺伺服器,可在「無網絡」情況下使用。

能耗方面,DeepSouth 在同一任務下的功耗僅為傳統晶片的幾十分之一到幾百分之一。

5、浙大「達爾文」類腦晶片

(浙大和杭州電子科技共同研發的「達爾文」晶片)

2015年一群來自浙江大學與杭州電子科技大學的年輕的研究者們研發出一款成為達爾文的類腦晶片。這款晶片是國內首款基於矽材料的脈衝神經網絡類腦晶片。「達爾文」晶片面積為25平方毫米,比1元硬幣還要小,內含500萬個電晶體。晶片上集成了2048個矽材質的仿生神經元,可支持超過400萬個神經突觸和15個不同的突觸延遲。

據研發團隊介紹說,這款晶片可從外界接受並累計刺激,產生脈衝(電信號)進行信息的處理和傳遞,這如我們前面提到的人類神經元間的信息傳遞一樣。研發人員還為「達爾文」開發了兩款簡單的智能應用。一是這款晶片可識別不同人手寫的1-10這10個數字,二是「達爾文」在接受了人類腦電腦後,可控制電腦屏幕上籃球的移動方向。在熟悉並學習了操作者的腦電波後,「達爾文」會在後續接受相同刺激時做出同樣反映。

6、AI-CTX晶片

此外,國內也出現了一些小型的類腦晶片研究團隊,如AI-CTX團隊。據稱他們目前設計出了一款類腦晶片模型,不僅每個神經元都具有跟人腦神經元類似的電學特徵與動態參數,具有簡單的運算與存儲功能。他們還採用了一種特殊的布線方式,使各晶片之間的交流突破物理限制,進而增加晶片群組的原有網絡。這一晶片不適合處理靜態硬碟數據,但擅長處理如溫度、氣壓、人體信號、loT等包含時間參數的數據。

雖然目前市面上出現了幾款類腦晶片,但其在計算力上還不及傳統架構晶片快。為了提升計算機對大規模數據的運算效率,晶片企業現在最常見的做法就是基於傳統晶片架構,搭載人工神經網絡,從功能上模擬人腦計算的GPU、FPGA·、ASIC三種晶片,加上類腦晶片,並稱為AI晶片。智東西曾利用過去的一年時間,深入到晶片產業鏈上下遊,遍訪AI晶片各大公司以及創企,並進行過詳細細緻的報導。深入企業涉及英偉達、谷歌、聯發科等。

三、類腦計算成新方向

人腦的這三大特性始終是計算機無法比擬的:一是低能耗,人腦的功率大約為20瓦,而目前計算機功耗需要幾百萬瓦;二是容錯性,人腦時刻都在失去神經元,而計算機失去一個電晶體就會破壞整個處理器;三是無需編程,大腦在於外界交互過程中自發學習和改變,並非遵循預先設計好的算法。

中國也十分重視類腦研究,並將類腦計算作為國家戰略發展的制高點。中國不僅在2015年將腦計劃作為重大科技項目列入國家「十三五」規劃,還發布了關於腦計劃「一體兩翼」的總體戰略:一體即認識腦:以闡釋人類認知的神經基礎為主體和核心;兩翼即保護腦:預防、診斷和治療腦重大疾病和模擬腦:類腦計算。

中國的學術界也展開了對類腦的研究,2015 年中科院、清華、北大,相繼成立「腦科學與類腦智能研究中心」,2017年5月在合肥成立了類腦智能技術及應用國家工程實驗室。這些實驗室將借鑑人腦機制攻關人工智慧技術,推進類腦神經晶片、類腦智慧機器人等新興產業發展。

結語:類腦晶片或將賦予機器智能

目前,搭載神經網絡引擎的晶片層出不窮,晶片巨頭和初創們都在原有的馮諾依曼架構上爭相利用神經網絡優化晶片計算力。從目前這類AI晶片的表現上看,FPGA的靈活性較好但開發難度大,ASIC因其功耗低、開發難度適中將在終端AI晶片上具有較大優勢。

類腦晶片不僅能提高計算機的計算速度、降低功耗,其在國防領域也將發揮重要作用,對研發高度自主性的智慧機器人以及提高其他設備的智能水平也有重要意義。就讓機器實現智能這一人工智慧終極理想來說,從人類自身結構出發是一可選思路,但並非僅此一種。

從現在各大公司的研究成果來看,像IBM TrueNorth這樣的類腦晶片運行的效率還不及以上提到的在傳統架構上運用神經網絡的晶片。但馮諾依曼瓶頸是客觀存在的事實,隨著運算數據量的增加,這一短板將越來越明顯。

而人腦也的確憑藉低功耗、高運算力成為計算機晶片研發學習的方向,但短期內類腦晶片還難以表現出其優勢,或許隨著對人腦研究的深入,會有人像牛頓一樣被「上帝的蘋果」砸中,從而擁有敲開具有高速運算力的類腦晶片領域的敲門磚。或許現在的傳統架構加神經網絡晶片就是像牛頓的萬有引力定律一樣適用於數據量較大的運算,而類腦晶片像愛因斯坦的相對論一樣在實現機器智能上更具潛力。

相關焦點

  • 「芯觀點」後摩爾時代的AI革命:算力需求激增,催生晶片創新
    突破摩爾定律的嘗試摩爾定律和馮諾依曼架構的瓶頸在算力需求激增之下日益凸顯。尋找新的替代方案突破蠻力計算變得尤為重要。復旦大學信息學院研究員、新氦類腦智能首席科學家鄒卓教授指出,摩爾定律的挑戰在於——無法承受的能耗密度,原子尺度的尺寸、製程、器件的不穩定性和偏差,以及比例縮小並沒有帶來實質性的性能提升,高昂的研發和製造成本。與此同時,馮諾依曼計算架構不斷抵近極限,即內存的讀取速度和晶片的處理速度漸漸難以實現同步。
  • 淺析後摩爾時代的AI革命
    此類創新將變得越來越重要,因為AI引發的計算能力需求的激增正值摩爾定律逐漸枯竭之際——在過去50年裡,傳統數字計算機的性能按照摩爾定律一路提升——集成電路(微晶片)的容量大約每18-24個月翻一番。如今,數字計算機性能的發展速度似乎正在放慢。 突破摩爾定律的嘗試 摩爾定律和馮諾依曼架構的瓶頸在算力需求激增之下日益凸顯。
  • 分析量子態,尋找矽的替代者來衝破摩爾定律
    加州大學伯克利分校伯克利實驗室的科學家們發現一些物質可能有助於在與摩爾定律賽跑中找到矽的替代者。在尋找性能優於矽的新材料的過程中,科學家們一直希望利用這種被稱為氧化物異質結構(oxide異質結構)的2D器件不尋常的電子特性,這種結構由含氧材料的原子薄層組成。
  • 傳統電子學中的量子態可能超越摩爾定律
    幾十年來,計算機行業一直受益於摩爾定律。摩爾定律是一種經驗法則,它預測集成電路上的電晶體數量大約每兩年翻一番。隨著這一趨勢的持續,計算機已經從作為建築物一部分的巨型機器發展到可以放在桌面上的微型設備,而且性能還能超越前幾代的任何超級計算機。它給我們帶來了智慧型手機,網際網路以及各種各樣的應用程式,這些改變了我們的生活,而這只能被稱為一場革命,但是現在摩爾定律開始崩潰。
  • 超越摩爾定律 中國臺灣研究團隊獲重大突破
    中國臺灣是半導體產業重鎮,即便連臺積電,都致力於尋找超越摩爾定律的先進位程,而臺灣物理團隊搶先一步,成功研發出超越摩爾定律的二維單原子層二極體,並在自然通訊雜誌上發表成果。臺灣地區「科技部」今天舉辦研究成果發表記者會,在「科技部」、成功大學與臺灣同步輻射研究中心的支持下,成大物理系教授吳忠霖與同步輻射研究中心博士陳家浩組成的研究團隊成功研發出二維單原子層二極體,更加輕薄、效率更高,可以超越摩爾定律,並進行後矽時代電子元件的開發,也因此,這項研究成果登上「自然通訊(Nature Communications)」雜誌。
  • 人腦設計了電腦、未來電腦可能超越人腦,萬物互聯會形成全球腦?
    ——全球腦。藉助網際網路為核心的通信網絡,人與人,人與機器,機器與機器,他們聯結在一起,彼此交流信息,形成一個特別巨大的智能系統---全球腦。地球是一個腦(超級智慧),每一個人腦是一個神經元,每臺電腦是一個機器神經元生物神經網絡(人腦)
  • 一篇論文引發的光子AI晶片革命!這次真想要了摩爾定律的命
    一篇頂刊論文引出的新型賽道 隨著摩爾定律滯緩,矽光子技術成為超越摩爾定律的研究方向之一。 2017年,來自英國艾克塞特大學、牛津大學和明斯特大學的研究人員,宣布了其類腦光碟機動晶片研究成果。
  • 施路平:類腦計算——人腦與電腦
    施路平教授的演講題目是《類腦計算——人腦與電腦》。他為我們介紹了發展類腦計算的必要性及其挑戰,並分享了關於世界首款異構融合類腦晶片「天機芯」的研究成果。他認為,人腦和電腦這兩個系統可以互補,類腦計算能夠支撐人工通用智能發展,其關鍵在於多學科融合。
  • "最大規模類腦計算機"出現,離人腦還有多遠?
    據介紹,這臺類腦計算機包含792顆浙江大學研製的達爾文2代類腦晶片,支持1.2億脈衝神經元、近千億神經突觸,與小鼠大腦神經元數量規模相當,典型運行功耗只需要350-500瓦,同時它也是目前國際上神經元規模最大的類腦計算機。「全球規模最大」的字樣,成為很多人的注意點。畢竟在國內科技產業備受國外打壓的當下,這種消息就如同「一針強心劑」!
  • 摩爾定律的黃昏,計算機行業的十大未來方向!
    微軟研究院的副總裁 Peter Lee 曾經開玩笑說:「預測摩爾定律將會失效的人數,每 2 年都會翻上一番。」而在英特爾官方宣布放棄追求摩爾定律曲線的時候,這一天也就到來了。摩爾定律對整個計算產業有著舉足輕重的影響。我們最為關心的是,在摩爾定律之後,計算領域會發生什麼改變?
  • 傳說中的光子計算機將直接擊潰摩爾定律
    在過去幾十年中,計算機處理器的發展一直都遵循摩爾定律,這個由戈登·摩爾提出的定律一直都推進著電子行業的發展。但是近年來不斷的傳出摩爾定律即將失效的聲音,在今年的GTC上,老黃在開場後直接表示「摩爾定律」已經失效,「設計人員無法再創造出以實現更高指令級並行性的CPU架構」「電晶體數每年增長50%,但CPU的性能每年僅增長10%」。
  • 中國研發顛覆性晶片,使用自主系統,可以像人腦一樣思考?
    眾所周知,科學家們最早研發電腦,其實是想通過機器模擬出一個人類的大腦來計算,但後來這個想法太超前,難以實現,於是退而求其次,最開始的電腦幫助人腦進行計劃,需要人類輸入指令,離類腦一樣計算起碼有十萬八千裡。
  • 超材料或將延續摩爾定律?
    半導體行業的發展使得傳統意義上的摩爾定律受到了不同程度的質疑,甚至有聲音說:「摩爾定律要失效了!」因此,如何延續摩爾定律成了當今半導體行業熱議的話題。日前,中國工程院院士、清華大學材料學院教授周濟在接受《中國電子報》記者專訪時表示,超材料有可能從工藝和原理兩方面延續摩爾定律,為信息技術的進一步發展提供新的技術路線。
  • 摩爾定律,Chiplet,IP與SiP
    導讀:在這篇文章中,我們可以了解到四個概念:摩爾定律, Chiplet,IP,SiP以及四者之間的相互關聯。 什麼是「摩爾定律」? 摩爾定律是以英特爾聯合創始人戈登·摩爾(Gordon Moore)的名字命名的。
  • 為何說7nm是矽材料晶片的物理極限?1nm真的能救摩爾定律嗎?
    而近年來,晶片製造技術進步放慢,摩爾定律出現失效的客觀現象,對於中國半導體產業追趕西方來說是一大利好。Bazednc摩爾定律失效,一方面既有技術因素——先進光刻機、刻蝕機等設備以及先進晶片製造技術研發技術難度大、資金要求高......另一方面也有商業上的因素。
  • 擁有「嗅覺」 的新神經算法晶片
    前言: 人類除視覺、聽覺之外,在嗅覺研究上有新突破,帶來新想像空間和應用空間,人類對大腦的認知以及類腦晶片、AI晶片又跨上新臺階,未來的晶片發展之路又有可能另闢蹊徑。類似人類大腦的神經擬態晶片神經擬態計算一直被寄予厚望。就算摩爾定律終結,它仍能繼續帶領資訊時代向前。
  • 摩爾定律一
    每個新的晶片大體上包含其前任兩倍的容量,每個晶片產生的時間都是在前一個晶片產生後的18~24個月內,如果這個趨勢繼續,計算能力相對於時間周期將呈指數式的上升。 Moore的觀察資料,就是現在所謂的Moore定律,所闡述的趨勢一直延續至今,且仍不同尋常地準確。人們還發現這不僅適用於對存儲器晶片的描述,也精確地說明了處理機能力和磁碟驅動器存儲容量的發展。該定律成為許多工業對於性能預測的基礎。
  • 摩爾定律面臨的兩個問題
    戈登·摩爾在 1965 年提出摩爾定律時,其內容為半導體晶片上集成的電晶體數量將每年增加一倍,1975 年,他又根據當時的實際情況對摩爾定律進行了修正,把「每年增加一倍」改為了「每 18 到 24 個月增加一倍」。 摩爾定律發展至今已有 50 多年,在這 50 多年間,不斷有人唱衰,甚至有人提出「摩爾定律已死」的觀點。
  • 摩爾定律失效 還有什麼方法讓計算性能暴漲
    以下是文章主要內容:摩爾定律假定,微處理器的電晶體將每兩年翻一倍,它們的計算性能也隨之翻倍。自戈登?摩爾(Gordon Moore)1965年提出以來,該定律一直生效。不過近年來業界一直預測該定律即將失效。早在2000年,《麻省理工科技評論》就矽技術在大小和速度上的極限提出了警告。實際上,摩爾定律並不算是定律。它更多的是自我實現的預言。
  • 摩爾定律的突圍
    結合目前高性能計算晶片發展趨勢來講,通過等比例縮放電晶體長度的二維化模式來延展摩爾定律已經變得越來越難,我們需要從第一性原理出發來理解摩爾定律背後所反映的晶片發展規律,即晶片技術的持續進步是人類生產力不斷發展的縮影,摩爾定律是關於晶片技術進步的一種定量化的具體表現形式,我們將其目標簡單抽象概括為「單位面積晶片在每瓦每單位成本的基礎上實現更高計算能力」。