顛覆傳統計算架構:光神經網絡硬體登上Nature

2020-12-05 機器之心Pro

在過去的幾十年裡,電子計算發展迅猛,但其能源成本居高不下,因此,研究人員一直在探索其他可行的計算方法。光學計算就是其中一條頗有前景的研究方向。近日,一篇 Nature 論文展示了光學計算的最新成果,德國的研究人員提出了一種在毫米級光子晶片上實現的全光學神經網絡,該網絡內部沒有光到電的轉換,因此能源利用效率更高。這種光神經突觸網絡有望獲得光學系統固有的高速和高帶寬,並可以直接處理光通信和視覺數據。

光纖以光的形式傳輸數據,是現代遠程通信網絡的支柱。但在分析這種數據時,我們需要把光轉換為電子,然後用電子方法進行處理。光學曾被認為是一種潛在計算技術的基礎,但由於電子計算發展迅速,光學計算在這條賽道上跑得很吃力。

然而,近幾年來,人們越來越關注計算的能源成本。因此,光學計算再次受到關注,因為它不僅可以降低能源需求,還可作為加速人工智慧算法(如深度神經網絡)的專用硬體。德國明斯特大學物理研究所的 Feldmann 等人在《Nature》上發表了一篇論文——「All-optical spiking neurosynaptic networks with self-learning capabilities」,闡述了這種網絡的全光學實現取得的可喜進展。

深度神經網絡包含很多層人工神經元和人工突觸,它們是神經元之間的連接。這些連接的強度被稱為權重,它們可以是正的,表示神經元被激活;也可以是負的,表示神經元抑制。深度神經網絡通過改變其突觸權重來學習執行圖像識別等任務,從而最小化實際輸出與預期輸出之間的差距。

CPU 和其他數字硬體加速器通常用於深度神經網絡計算。深度神經網絡可以使用一個已知的數據集進行訓練,而已經訓練的深度神經網絡可以在推理任務中應用於未知數據。無論哪種情況,雖然計算量很大,運算種類卻不多,因為「乘積累加」運算在諸多突觸權重和神經元激活中佔據主導地位。

眾所周知,深度神經網絡在計算精度低時也能表現良好。因此,這些網絡為非傳統計算技術提供了一個很好的機遇。例如,研究人員正在探索基於非易失性存儲設備的深度神經網絡加速器。這類設備在切斷電源時也能保存信息,同時通過模擬電子計算能夠提升深度神經網絡的速度和能源效率。

那麼,為什麼不考慮利用光學呢?引導光的結構--無論是用於電信的光纖還是用於光子晶片的波導--都可以包含大量數據。在這類波導內部,光的很多波長可以利用波分復用(wavelength division multiplexing)技術同時傳播。之後,每個波長可以進行調製(其改變時可以攜帶信息),其中調製速度受限於與電-光計算和光-電計算有關的可用帶寬。

諧振器結構使波導能夠添加或刪除單個波長。例如,微米級環狀(微環)諧振器可以實現突觸權重陣列。這類諧振器可以進行熱態電光調製,或利用上述論文中提到的相變材料調製。這些材料可以在非晶相和晶相之間轉換,這與它們吸收光的能力大不相同。在理想狀況下,得出的乘積累加運算只需少量電能。

Feldmann 等人提出了一種在毫米級光子晶片上的全光學神經網絡,該網絡內部沒有光到電的轉換。輸入的數據被電子調製成不同的波長以注入網絡,但之後所有數據都會停留在晶片上。利用集成相變材料來實現權重調製和神經元集成;它們位於兩種微環諧振器上,具有突觸或神經功能。

在不同工作波長情況下注入的未調製光接收到在相變材料中累積的神經元激活,之後將它們傳遞到網絡下一層。即使沒有晶片上光學增益(在這個過程中,一種介質將能量傳遞給通過它傳輸的光),這個設置也可能擴展至更大的網絡。作者在其上實現了小規模的監督學習和無監督學習。

由於權重通過光吸收來實現,負權重需要一個較大的偏置信號,一定不能激活相變材料。另一種可以快速提供負權重的方法是採用 Mach–Zehnder 幹涉儀。在這些設備中,單個波導被分為兩個分支,之後重新結合,這使得傳輸光的數量取決於兩條路徑間的光學相位差。但是,這種方法與波分復用方法的結合可能具有挑戰性,因為每個幹涉儀的分支需要為每個波長引入合適的相位差。

光學 DNN 仍然面臨巨大挑戰。在理想狀態下,它們的總功率使用可能較低,但熱光功率經常需要調整和保持每個 Mach–Zehnder 幹涉儀分支中的光學相位差異。此外,注入包含相變材料系統中的總光學功率必須仔細校準,使材料對輸入信號的響應完全符合預期。

儘管相變材料可以用來調整 Mach–Zehnder 相位,但材料吸收光的強度和減慢光速之間不可避免的交叉耦合會帶來相當大的複雜性。

相變材料似乎非常適合突觸權重的非揮發性長期存儲,突觸權重基於微環共振器,只需要很少的調整。然而,當在神經元中使用時,這種材料的結晶速度會限制神經元被激發的最大速率。

另外,在每次潛在的激發事件後,需要熔化材料以誘導完全神經元復位,這將迅速消耗材料雖然很大但有限的開關耐用性。

傳統的 DNN 已經發展壯大,現在的 DNN 通常包含數千個神經元和數百萬突觸。但光學網絡需要相隔很遠的波導,以防止耦合,並且避免急劇彎曲以防光離開波導。因為交叉兩個波導可能將不想要的功率注入錯誤路徑,因此光子晶片的 2D 特性呈現出實質性的設計限制。

實現光學網絡除了需要很長的距離和很大的面積外,每個光子結構關鍵部件的製造也要求非常精確。因為波導和耦合區域(例如,在每個微環諧振器的入口和出口處)必須有精確的維度來達到預期的性能。

小型微環共振器的製造也有限制。最後,調製技術提供的相對較弱的光學效果需要很長的交互區域,以使它們對通過的光的有限影響達到顯著水平。

Feldmann 及其同事在研究中所取得的進步,有望推動該領域的未來發展。開發容易獲得的寬帶片上增益將大有裨益,支持對每片光學編碼數據進行獨立和任意操作、而無需大面積光子晶片的技術也同樣如此。

如果提供高能效的可擴展光子神經加速器最終出現,Feldmann 等人和該領域其他人的研究將會成為該項技術的開山之作。

論文:All-optical spiking neurosynaptic networks with self-learning capabilities

論文地址:https://www.nature.com/articles/s41586-019-1157-8

類腦運算中的軟體實現是語音識別等諸多重要計算任務以及人工智慧和深度學習應用的基礎。然而不同於真正的神經組織,傳統計算架構物理分隔了內存和處理的核心計算功能,導致很難實現快速、高效和低能耗計算。為了克服這些限制,設計能夠模擬神經元和突觸的硬體不失為一種好方案。當在神經網絡或神經形態系統中連接時,這種硬體像大腦一樣處理信息。

在本篇論文中,作者提出一種全光學神經突觸系統,能夠實現監督和無監督學習。他們利用波分復用技術實現了光子神經網絡的可擴展迴路架構,成功展示了在光學領域的模式識別。這種光子神經突觸網絡有望獲得光學系統固有的高速和高帶寬,從而能夠直接處理光通信和視覺數據。

圖 1:本論文中的全光學脈衝神經元迴路。a, b:本研究實現的神經網絡原理圖,包括幾個突觸前輸入神經元和一個突觸後輸出神經元,二者通過 PCM 突觸連接。輸入脈衝使用 PCM 單元加權,利用一個 WDM 多路轉換器(MUX)進行綜合。如果突觸後脈衝的綜合功率超過一定的閾值,環形諧振器上的 PCM 單元就會轉換,輸出脈衝就會產生(神經元脈衝)。c:帶有符號塊的集成光學神經元的光子迴路圖,其中幾個符號塊可以使用波長輸入和輸出連接到更大的網絡(見圖 5)。d:三組神經元(B1、D1、D2)的光學顯微照片,有四個輸入埠。左邊的四個小環形諧振器用於將不同波長的光從輸入端耦合到單個波導上,然後在與大環形的交點處形成 PCM 單元。底部的三角形結構是光柵耦合器,用於將光耦合到晶片上和晶片外。

圖 2:人工神經元的脈衝產生和操作。a:一種相變神經元迴路的光子實現原理圖。b:用電子顯微掃描環形諧振器以實現激活函數;c:該器件在 b 中的歸一化傳輸測量(除以測量的最大傳輸值)及其對脈衝能量的依賴。d:歸一化傳輸到固定波長輸出(c 中虛線),顯示用於定義神經元觸發閾值的激活函數。

圖 3:利用相變全光學神經元進行監督學習和無監督學習。a 和 b 表示兩個神經元在不同輸入模式下的輸出;C:全光學神經元的無監督學習機制;d:重複顯示「0110」模式時四個突觸的權重隨時間的變化。

圖 4:全光學神經網絡的可擴展架構。a:整個神經網絡包含一個輸入層、一個輸出層和幾個隱藏層。b:神經網絡中一個單層結構的光子實現。

圖 5:單層脈衝神經網絡的實驗實現。a:該裝置由四個光子神經元組成,每個神經元有 15 個突觸。b:輸出脈衝強度的變化顯示在右側所示的四種訓練模式中。

參考連結:https://www.nature.com/articles/d41586-019-01406-0

相關焦點

  • 清華首次提出「類腦計算完備性」及計算系統層次結構,登上Nature
    類腦計算與傳統計算機架構不同,後者是圍繞圖靈完備和完善的馮諾依曼結構,前者目前還沒有沒有廣義的系統層次結構,或對類腦性計算的完整性的理解。這會影響類腦計算軟體和硬體之間的兼容性,從而阻礙了大類腦式計算的開發效率。
  • 清華大學博士生塗鋒斌:設計神經網絡硬體架構時,我們在思考些什麼...
    國際IT巨頭,如英特爾、谷歌、IBM,都在競相研發神經網絡計算晶片。然而,神經網絡的結構多樣、數據量大、計算量大的特點,給硬體設計帶來了巨大挑戰。因此,在設計面向神經網絡的高性能、高能效硬體架構時,我們需要思考清楚以下三個問題:雷鋒網本期公開課特邀請到清華大學微納電子系四年級博士生塗鋒斌,為我們分享神經網絡硬體架構的設計經驗。
  • 顛覆傳統計算機架構!我國科學家發布億級神經元類腦計算機
    據新華社消息,浙江大學聯合之江實驗室9月1日在杭州發布一款包含1.2億脈衝神經元、近千億神經突觸的類腦計算機。該計算機使用了792顆由浙江大學研製的達爾文2代類腦晶片,神經元數量規模相當於小鼠大腦。據介紹,類腦計算指用硬體及軟體模擬大腦神經網絡的結構與運行機制,構造一種全新的人工智慧系統。這是一種顛覆傳統計算架構的新型計算模式,被視為解決人工智慧等領域計算難題的重要路徑之一。類腦計算機工作原理類似於生物的神經元行為,信號來時啟動,沒有信號就不運行,相較於傳統計算機能降低能耗、提升效率。
  • 晶片革命:二維材料顛覆傳統計算架構
    圖源:Veer根據數據處理方式的不同,計算任務可以分成感知型和推理型兩類。感知型計算的典型代表有圖像識別,自然語言處理等基於神經網絡的計算,推理型計算的具體例子則有CPU, FPGA等電晶體型計算。在處理諸如物體識別和自然語言處理這類感知型計算時,高度並行的矩陣計算方法是最優方法;而處理推理型計算任務時,串行的邏輯計算方式效率會更高。目前的計算架構是將計算單元和存儲單元物理分離的馮諾依曼型架構,用戶只能將這種單一的計算架構同時用於解決感知型計算和推理型計算中。
  • MIT新突破:Nature Photonics揭秘新型光學深度神經網絡系統
    作者:David Chandler機器之心編譯參與:吳攀、黃小天、蔣思源儘管科學家和研究者一直在探索新型的計算形式,但目前電子計算仍然是絕對的主流。隨著以深度學習為代表的人工智慧技術的興起,人們也開始關注如何開發出能更有效、更高速地執行神經網絡運算的計算硬體。
  • 清華施路平團隊新研究登上《自然》,提出類腦計算系統新框架
    但是,儘管這些進步使硬體變得更加強大,但它們也給那些希望在這些不斷變化的設備上優化算法性能的系統架構師帶來了挑戰。 傳統計算機設計的一個重要特徵是軟體和硬體開發之間缺乏緊密耦合,這使得新設備(晶片、內存等)能夠獲得最佳性能。
  • 科學家開發基於光的並行卷積神經網絡有望徹底「變革」AI硬體
    新型硬體系統的發展隨著 AI 的興起,傳統的電子計算方法逐漸達到了其性能極限,並且滯後於可處理數據的快速增長。在各種類型的 AI 系統中,人工神經網絡由於優異的性能而被廣泛應用於 AI 任務,這些網絡使用多層相互連接的人工神經網絡進行複雜的數學運算。為了加速人工神經網絡的處理,人們已經做出了各種努力來設計和實現特定的電子計算系統。
  • 40納秒完成圖像分類,圖像傳感器自帶神經網絡登上Nature
    也就是說,可以通過改變施加的電壓來調節半導體對光的響應,從而調節每個二極體的靈敏度。實際上,這就將光電傳感器網絡變成了神經網絡,將光學傳感和神經形態計算結合起來,使其能夠執行簡單的計算任務。改變二極體的靈敏度,就相當於改變神經網絡中的權重。
  • Nature重磅:用「光」加速AI,基於光的並行卷積神經網絡有望徹底...
    新型硬體系統的發展 隨著 AI 的興起,傳統的電子計算方法逐漸達到了其性能極限,並且滯後於可處理數據的快速增長。在各種類型的 AI 系統中,人工神經網絡由於優異的性能而被廣泛應用於 AI 任務,這些網絡使用多層相互連接的人工神經網絡進行複雜的數學運算。 為了加速人工神經網絡的處理,人們已經做出了各種努力來設計和實現特定的電子計算系統。
  • 清華首提「類腦計算完備性」及計算系統層次結構,登Nature
    神經形態計算從生物大腦中獲取靈感,為計算機技術和體系結構的下一波發展提供了方向。類腦計算與傳統計算機架構不同,後者是圍繞圖靈完備和完善的馮諾依曼結構,前者目前還沒有沒有廣義的系統層次結構,或對類腦性計算的完整性的理解。
  • ...計算成果再登Nature:張悠慧施路平團隊出品,有望打破馮諾依曼瓶頸
    這並不是清華大學類腦計算中心的相關研究成果,第一次登上Nature。去年8月,清華類腦計算中心施路平團隊自行研發的類腦晶片「天機」,登上了Nature封面。以這片類腦晶片為基礎,研究團隊實現了高度靈敏,並且能聽懂自然語言指令的自行車。而最新發表的研究,則是為了解決類腦計算系統的「基礎設施架構」問題。
  • 登上Nature子刊封面:英特爾神經晶片實現在線學習
    論文第一作者,英特爾實驗室的 Nabil Imam 和 Loihi 測試版神經晶片。該團隊正在晶片上構建算法模仿人類聞到某種氣味後大腦神經網絡中發生的情況。傳統的深度學習解決方案要達到與 Loihi 相同的分類準確率,學習每類氣味需要 3,000 倍以上的訓練樣本。後者是一個耗費大量時間和算力的過程,而且經常會在遇到全新類型目標時識別失敗。作為這一研究的基礎,英特爾 Loihi 晶片架構與傳統 CPU、GPU 甚至深度學習晶片 TPU 相比都更加接近於大腦的工作機制。
  • Nature:用光子處理器提升人工智慧計算速度
    但是,數據量的快速增長給AI中使用的電子計算硬體帶來了巨大的挑戰,計算速度和功耗問題已成為人工智慧的主要瓶頸。Xu等人和Feldmann等人的兩篇論文報告了一種通過利用光的獨特屬性來加速AI處理的光子處理器。這些報告引發了光學計算的復興。隨著人工智慧的興起,傳統的電子計算方式逐漸達到其性能極限,遠遠落後於可處理數據的快速增長。
  • 速度提升百倍,顛覆大數據處理的光子計算晶片來了?
    「如果用傳統的空間光的方式做光學器件,體積在毫米或者釐米級別。但使用成熟的半導體製程可以讓光學器件的體積縮小到微米級別。」沈亦晨指出。硬體有了,軟體將在很大程度影響光子計算晶片能夠拓展的邊界。光子晶片即將顛覆大數據處理為了實現更好的大數據計算,軟硬體的融合以及對算法的支持非常重要。
  • 清華大學張悠慧團隊首提類腦計算完備性,論文登上《自然》雜誌
    用高級計算機語言編寫的算法被分解成基本的計算操作,以產生軟體的中間表示。這些操作被轉換成硬體的完全等價的中間表示形式:一組指令,然後在硬體上運行。因此,軟體可以與硬體分開進行開發。然而,神經形態計算機(那些使用人工神經元網絡作為其計算基礎的計算機)尚未定義類似的層級結構。b.
  • 科大訊飛:希望有新的專門針對於神經網絡的計算架構改進
    「神經網絡(neural network)前途無量,但因為我們尚沒有足夠的計算能力使其一鳴驚人,神經網絡一度銷聲匿跡。」Google資深系統專家Jeff Dean說。而Google最新開源的TensorFlow深度學習系統也證明了深度學習對硬體的依賴。那麼,今天深度學習的流行,將如何推動硬體的發展呢?
  • 物理波動力學計算在模擬循環神經網絡的應用
    (文章來源:量子認知) 對人腦神經元網絡系統進行抽象建立模型構成的人工神經網絡,簡稱神經網絡或類神經網絡。 機器學習在執行複雜的信息處理任務方面取得了顯著成功,例如計算機視覺識別和機器翻譯,這是過去傳統計算方法難以實現的。但是,這些應用程式的計算需求呈指數級增長,這促使人們努力開發新的專用硬體平臺,以快速高效地執行機器學習模型。其中包括神經形態硬體平臺,其架構模仿大腦的生物電路。
  • CVPR 2019 神經網絡架構搜索進展綜述
    ——但是還為時過早。手動調參尋找神經網絡架構依然是個有趣的工作,尤其是對於那些帶了很多學生的導師而言(開玩笑啦~)。  神經網絡架構搜索(NAS)——前言那麼問題來了,神經網絡架構搜索(NAS)究竟是什麼?為什麼我們要了解NAS呢?(這一部分是為了去年完全沒有跟進領域內進展的人準備的)NAS的核心思想是使用搜索算法來發現用於解決我們的問題所需要的神經網絡結構。
  • 量子計算還沒搞懂,光子計算又要來統治世界?
    【CSDN 編者按】去年 12 月,量子計算原型機「九章」 驚人的單項計算能力超過了 Google 當年水平,國人自己也手握一份「量子霸權」,新年伊始,兩篇關於光子計算的文章又登上國際頂刊 Nature, 給我們打開了計算領域另一扇大門,不斷刷新的計算能力,讓我們對未來充滿期待。
  • Nature:清華團隊提出類腦計算系統新框架,通用人工智慧或將不再科幻
    而且,由於許多類腦晶片不是為通用計算而設計的,而且它們中很少提供傳統的指令集,因此不清楚它們是否是圖靈完備的,甚至不清楚圖靈完備是否是必要的。硬體方面,則包括所有類腦晶片和架構模型。他們設計了抽象神經形態體系結構(ANA)作為硬體抽象,包括一個 EPG 圖(execution primitive graph),作為上層的接口來描述它可以執行的程序。EPG 具有控制-流-數據流的混合表示,最大化了它對不同硬體的適應性,且符合當前硬體的發展趨勢,即混合架構。