朝著計算機念一句「春眠不覺曉」,它就能憑著「記憶」很快接著念出「處處聞啼鳥……」朝它噴殺蟲劑,它會顯示出「注意有毒氣體」的感知反饋……9月1日,記者從浙江大學了解到,這臺能像人一樣「回憶」、「聞」氣味的計算機,正是浙江大學聯合之江實驗室共同研製出的我國首臺基於自主智慧財產權類腦晶片的類腦計算機(Darwin Mouse)。
這臺類腦計算機是目前國際上神經元規模最大的類腦計算機。它包含792顆浙江大學研製的達爾文2代類腦晶片,支持1.2億脈衝神經元、近千億神經突觸,神經元數量規模相當於一個小鼠大腦。相比傳統計算機由於數據儲存和計算分離而產生的高能耗問題,該類腦計算機的典型運行功耗只需350瓦至500瓦。
與此同時,團隊還為類腦計算機研製了「管家婆」——達爾文類腦作業系統(DarwinOS),用以實現對類腦計算機硬體資源的有效管理與調度,支撐類腦計算機的運行與應用。
這臺類腦計算機到底「聰明」到怎樣的程度?類腦計算機如何實現像人一樣思考?其未來發展方向又在哪裡?帶著這些疑問,我們走近這臺浙江造的神奇「大腦」。
像大腦
一樣「思考」
「滴,滴,滴……」記者在實驗現場看到,3臺外形相似的機器人正合作開展抗洪救險任務。1號機器人憑藉自帶攝像頭在場地巡邏,當發現堤壩缺口後,就呼叫負責工程的3號機器人前來修壩,同時搜尋受傷人員,當發現倒在地上的人體模型後,又呼叫負責救援的2號機器人……不同於現有機器人的是,這幾個機器人是在類腦計算機的控制下通過語音開展移動指令,並接受任務分配。
「這臺類腦計算機是像搭積木一樣搭起來的。每顆晶片上有15萬個神經元,每4顆晶片做成一塊板子,若干塊板子再連接起來成為一個模塊。」項目研究骨幹金孝飛說。
2015年和2019年浙江大學分別研製成功達爾文1代和達爾文2代類腦計算晶片,用晶片去模擬大腦神經網絡的結構與功能機制,在圖像、視頻、自然語言的模糊處理中具有優勢。而這次的成果是將數百顆達爾文2代類腦計算晶片集成在3臺1.6米高的標準伺服器機箱中,從而形成一臺強大的機架式類腦計算機。
而要讓這麼多神經元能夠互聯並且可拓展從而實現高效的聯動組合,同時要把雜亂無章的信息流有序分配到對應的功能腦區,依靠的正是「管家婆」——達爾文類腦作業系統(DarwinOS)。「目前達爾文類腦作業系統的功能任務切換時間達微秒級,可支持億級類腦硬體資源管理。」項目研究骨幹呂攀說。
未來,類腦計算機既可用於生活中各種智能任務的處理,開拓人工智慧的應用場景;也可用於神經科學、腦科學研究,從而為神經科學家提供更快更大規模的仿真工具,提供探索大腦工作機理的新實驗手段。
目前,浙江大學與之江實驗室的科研人員基於該類腦計算機已經實現了多種智能任務。除了抗洪搶險場景下多個機器人的協同工作,科研人員還用類腦計算機模擬了多個不同腦區,建立了丘腦外側膝狀核的神經網絡模型,仿真了不同頻率閃動的視覺刺激時該腦區神經元的周期性反應;借鑑海馬體神經環路結構和神經機制構建了學習-記憶融合模型,實現音樂、詩詞、謎語等的時序記憶功能;實現了腦電信號的穩態視覺誘發電位實時解碼,可「意念」打字輸入。
顛覆傳統
計算模式
從數值計算到脈衝計算,從馮·諾依曼架構到神經擬態架構,類腦計算機的出現,顛覆了傳統的計算模式和體系架構。
當我們在鍵盤上敲打出一串字符的時候,計算機就已經將它轉化成為「0」和「1」這種可以被機器識別的二進位語言,並通過數據線從中央處理器(CPU)的暫存器轉移到其他存儲單元……傳統的計算機在處理器和存儲器之間要進行多次數據交換。其發展之初採用以數值計算見長的馮·諾依曼架構,也就是以數字加減乘除的方式來進行信息架構。隨著摩爾定理逐漸失效,馮·諾依曼架構帶來的局限日益明顯,存儲牆、功耗牆、智能提升等問題,讓當前計算機發展面臨重大挑戰。
如「存儲牆」問題就是在馮·諾依曼架構中數據存儲和計算的分離中產生的。「這就好比信息存儲在甲地,要計算的時候就把信息搬到乙地去,計算好了再搬回甲地去。但搬運的速度要遠遠低於計算的速度,反而讓搬運本身成為關鍵瓶頸。」浙江大學計算機科學與技術學院教授潘綱說,這種計算模式制約了以大數據為代表的計算性能提升。
雖然計算機運行一個簡單指令,數據來回跑動所需要的能耗很低,但對於人工智慧等需要密集計算的任務而言,短時間內幾千萬次甚至幾億次的運算量,匯聚在一起也會變成一片「汪洋大海」。因此,這又讓傳統計算機的「功耗牆」問題冒了出來。
此外,數據驅動的智能算法需要海量樣本和密集計算,但舉一反三、自我學習等高級智能能力比較差,和人的智能相比依然差得很遠。
如何突破現有計算運行方式導致的計算機瓶頸?
我們的身體早就透露了答案。人的大腦融存儲和處理的功能於一體,其速度和效率遠高於計算機。在處理如思辨寓言蘊含的哲理等複雜信息時,人腦的學習能力也是計算機無法企及的。
因此全球科學家再次將目光瞄準到模仿生物大腦這個最初的夢想。通過數字及模擬電路等硬體方式器件模擬人腦神經網絡的功能和連接關係,從而在有限的物理空間和能耗條件下構造出類似人腦的神經網絡系統。
潘綱介紹說,用硬體及軟體模擬神經大腦網絡的結構與運行機制,構造一種全新的人工智慧系統,這種顛覆傳統計算機架構的新型計算模式,被稱為類腦計算。其特點在於存算一體、事件驅動、高度並行等,「是解決人工智慧等計算難題的重要路徑之一」。
類腦晶片的工作原理類似於生物的神經元行為,通過脈衝傳遞信號,信號來的時候啟動,沒有信號就休息,實現高度並行,效率提升的目標。
下一站
在哪兒?
1.6米高,三個標準機櫃,幾個人都合抱不過來……在現場矗立的類腦計算機,讓人不禁感嘆是個「巨無霸」。別看現在的類腦計算機是個「大塊頭」,在1946年世界上誕生的第一臺計算機「埃尼阿克(ENIAC)」 28噸的體重面前,它還算個「小孩子」。科學家們表示,如同從「埃尼阿克」到平板電腦,隨著類腦晶片和其他硬體的更新迭代,類腦計算機體積縮小指日可待。未來要想邁入 「智能時代」,不能靠傳統計算機繼續「燒腦」。類腦計算機將植入手機、機器人,為城市生活帶來新的智能服務體驗。
硬體更新了,那麼軟體呢?科學家們將下一步的研究焦點放到了類腦計算機的智能化上。
目前,市面上的傳感器輸入的信號還是以數字為主,應用到類腦計算機上,要加一個編碼層,將信號轉換成脈衝式。在這個過程中信息有丟失和損傷的風險,會在一定程度上降低計算機的功效。新式的仿腦傳感器,也將有助於計算機「聰明勁兒」的提升。
在科學家們的設想中,類腦計算機的智能未來將接近人腦乃至某些方面超越人腦。它可以從科學家創造的虛擬環境中獲取知識,在現實環境中接受各種信息的薰陶,甚至是用機器人的身體和蝴蝶起舞實現互動。通過對它進行信息刺激、訓練和學習,類腦計算機有機會獲得人腦類似的智能,實現智能培育和進化。在神經元和突觸的自我調節的過程中,計算機進行學習、會話、推理等類人運算,實現更高級的智能。
近年來,國內外對於類腦計算機的研究一直在持續進展中。從2015年德國海德堡大學研發的擁有400萬神經元規模的BrainScales,到美國IBM研發的6400萬神經元規模的Blue Raven,再到今年3月份美國Intel的1億神經元規模的Pohiki Springs,直至如今的Darwin Mouse,世界各國的科學家們正在不斷刷新類腦計算系統的神經元規模上限。
當前,類腦計算研究還處於初級階段,無論在規模上,還是在智能化程度上,都無法和真正的人腦相比。
「我們希望能夠像生物進化一樣,不斷地讓達爾文系列類腦計算機朝著人類智能的方向發展,以超低功耗提供更強的人工智慧。」潘綱說,隨著神經科學發展和類腦計算機的系統軟體、工具鏈及算法的成熟,相信有朝一日科學家將能讓類腦計算機像馮·諾依曼架構計算機一樣通用化,真正像大腦一樣高效工作,與馮·諾依曼架構並存與互補去解決不同的問題。只是當下,類腦計算機尚有很長一段路要走。(見習記者 何冬健 記者 黃慧仙 通訊員 柯溢能 吳雅蘭)