科學家回歸人類大腦的研究,為當今運算技術尋找新的替代方案,這並不是什麼新鮮事兒。
CEA-Leti首席科學家Barbara De Salvo指出,自1950年代中期人工智慧(AI)初露曙光以來,儘管有許多科學家和工程師對此概念一直十分感興趣,但有關AI的研究卻幾經波折。
然而,現在正是認真看待人腦啟發技術的時候了。至少,「我們應該體認到目前還有其他的技術典範,將有助於我們提出好的問題。」De Salvo在今年國際固態電路會議(ISSCC)發表專題演講後接受《EE Times》的訪問表示,「如果沒有新的運算典範和算法,業界最終將難以達到更嚴格的功耗要求。」
雖然業界一直在推動嵌入式AI平臺,如Movidius的Myriad 2、Mobileye的EyeQ5,以及Nvidia的Xavier;但為了符合以較少功耗在邊緣(edge)處理大量分析的終端設備需求,她指出:「我們距離需要達到的這一步還差很遠」。
(來源:CEA-Leti)*
De Salvo在專題演講中比較推論階段的運算效率(GOPS/W)和幾種AI晶片的運算性能(GOPS)。
她指出,在業界的需求和現有解決方案之間仍然存在巨大差距。「沒有任何晶片——無論是商用發布、原型、學術界進行設計或開發中的晶片——能夠滿足低於100μW的功耗要求。」然而,這正是邊緣設備需要達到的性能,因為它們必須依靠能量採集或微型電池持續運作多年。
為什麼回歸人腦研究?
De Salvo說,我們知道人類大腦的重量約為身體的2%,然而,卻使用了人體新陳代謝的20%。
在20W時,人類的大腦可以處理1,011個GOPS。De Salvo強調,迄今為止,世界上沒有任何處理器的「性能和功率能夠比得上人類的大腦」。
De Salvo解釋說,這種能效級在人類動物的進化過程中發展了很長的時間,在最大限度發揮大腦功能的同時,也使得能量的使用減至最低。
這正是半導體產業得以從生物學借鑑之處。她表示,傳統的運算架構正致力於滿足功耗要求,主要是因為「每當處理器和內存通訊時都需要消耗能量。」相形之下,大腦突觸在單一架構中包含了內存和運算。她解釋說,這種巧妙的技巧為大腦啟發的非馮·諾伊曼(non-von Neumann)計算機架構提供了基礎。
對於大腦啟發的運作原則,其本質在於像棘波編碼(spike coding)和棘波時序相關可塑性(spike-timing-dependent plasticity;STDP)等元素。她指出,以系統中編碼的神經元狀態來看:過去,神經元使用模擬或數值進行編碼;而今,神經形態運算的最新趨勢是將神經元的值編碼為脈衝或棘波。她並解釋說:「神經元沒有頻率,它們純粹是事件導向的。」
科學界認為棘波編碼和STDP具有發展前景。如果以脈衝(棘波)來表示輸入/輸出訊號,那麼輸入訊號和突觸權重之間的加乘將在突觸級時降至閘控作業。在此的目標是經由建置採用異質方案的棘波或基於事件的訊號表示,從而降低功耗。
這是否就像是Chronocam開發的事件驅動圖像處理技術?她回答說:「是的。但是,Chronocam的解決方案針對的是應用於人造視網膜的『視覺』。而我們的產業使命在於將神經形態原則擴展到超越視覺以外的整個運算領域。」
De Salvo表示,IBM的TrueNorth是神經形態CMOS晶片的理想範例。目前以28nm FD-SOI建置的動態神經形態異質處理器可擴展學習(DynapSEL),則是大規模多核心神經形態處理器的另一個例子。DynapSEL目前是NeuRAM 3歐洲合作研究計劃旗下的開發計劃之一。
TrueNorth中的神經元以數字方式進行處理,而DynapSEL則是模擬的。然而,這兩種晶片都未能有效發揮神經形態系統的全部功能,因為內存並非基於神經形態的運作原理。
科學界正試圖讓內存接近處理單元,徹底改變傳統的內存分層架構,並實現「內存運算」(in-memory computing)。迄今為止,神經形態硬體尚未充份發揮潛力,De Salvo說:「我們需要在神經形態運算中使用超高密度的3D架構」,才能在神經元和突觸之間實現最大的連接性和可重配置性。
昆蟲的大腦
我們現在已知人腦中有1,000億個神經元,而像蜜蜂等智慧昆蟲在其約1mm立方體大小的腦中則有950,000個神經元。De Salvo指出,在各種昆蟲中,蜜蜂的大腦是最大的,她說:「我們已能掌握蜜蜂大腦中的神經元映射,然而,對於人腦內的神經元所知甚少。」
科學家熱衷於剖析蜜蜂的大腦,因為「蜜蜂十分聰明。(蜜蜂)有許多傳感器,能夠透過其導航方式進行覓食,而且知道如何在一個群體進行溝通。要在一個群體中共同生活,蜜蜂必須知道其他蜜蜂的功能。」
蜜蜂有著出色的感測系統,並且具備學習和記憶的能力。他們知道如何整合感官數據——以「傳感器融合」(sensor fusion)的方式,做出複雜的決定。
「當然,蜜蜂的大腦很小。但其簡化的形式為AI系統提供了很好的範本,」De Salvo說:「它強調需要以系統化的方式進行思考,因為有機體並不會分離傳感器和訊號處理。」
AI最新進展?
十年前,沒人能想像到我們如今從AI中看到的突破性進展。
CEA-Leti首席科學家Barbara De Salvo
然而,根據De Salvo的觀察,業界可能由於看好AI的前景,而太快將研究重心轉向 AI應用。事實上,她說:「我們仍然缺乏對於AI系統的全面理解…就像深度學習一樣。」
她解釋說,深度學習中存在著隱藏的分層,以及由此產生的系統複雜性,使得很難說哪些屬性對於提高性能擔負最大的責任。「相較於一般智慧,學習、抽象和推理能力所取得的普遍性仍然非常有限。」
深度學習在分類方面非常出色,但「預測仍然是神經運算的基本問題,」De Salvo說:「最近,神經網絡在執行簡單的任務時出現失敗,而人類在這方面從未失手。」De Salvo並引用A. Nguyen等人發表的「深層神經網絡易於被愚弄:對未辨識影像的高可信度預測」(Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognized Images)論文,她擔心這最終會阻礙市場發展,甚至「背叛用戶的信任,從而引發嚴重的道德問」。
編譯:Susan Hong
本文授權編譯自EE Times,版權所有,謝絕轉載