在當今數字時代,數據流量正以指數級的速度增長。對於人工智慧應用,例如尤其是模式和語音識別、或自動駕駛汽車,對計算能力的需求,通常超出了常規計算機處理器的能力。明斯特大學的研究人員與一個國際團隊合作,開發可以極其高效地應對這些任務的新方法和過程體系結構。研究表明,所謂的光基處理器晶片(Light-Based Processor Chips),即通過光對數據進行處理的晶片,可以更快、更並行地處理信息,而電子晶片則無法做到這一點。
該最新研究結果論文,題為:「使用集成光子張量核的並行卷積處理」,發表在最近的《自然》雜誌上。
科學家開發了用於所謂的矩陣向量乘法的硬體加速器,矩陣加速是模擬人腦算法的神經網絡基礎,神經網絡本身也用於機器學習算法。由於不同顏色的光波長不會互相干擾,因此研究人員可以使用多個波長的光進行並行計算。但是為此,他們使用了所開發的另一項創新技術作為光源,它是一種基於晶片的「頻率梳」。如圖所示矩陣乘法的光基處理器,波導交叉開關陣列與光學頻率梳一起,可以實現高度並行的數據處理。
背景和方法
基於光的處理器可加快機器學習領域的任務,使複雜的數學任務能夠以極快的速度(每秒10^12 -10^15次的操作)進行處理。諸如圖形卡之類的常規晶片或諸如Google TPU(張量處理單元)之類的專用硬體都是基於電子數據傳輸的,並且速度要慢得多。該研究團隊為所謂的矩陣乘法實現了硬體加速器,該矩陣加速器代表了神經網絡計算中的主要處理負載。如圖所示光運行的矩陣乘法處理器的示意圖。
研究人員將光子結構與相變材料(PCM)結合在一起,作為節能存儲元件。 PCM通常與DVD或BluRay光碟一起用於光學數據存儲中。在新處理器中,這可以存儲和保存矩陣元素,而無需能源。為了並行地對多個數據集進行矩陣乘法,明斯特物理學家使用基於晶片的頻率梳作為光源。頻率梳提供了在同一光子晶片中相互獨立處理的多種光學波長。結果,這可以通過同時計算所有波長來進行高度並行的數據處理。
在實驗中,物理學家使用了所謂的卷積神經網絡來識別手寫數字。這些網絡是受生物過程啟發的機器學習領域的一個概念。它們目前主要用於圖像或音頻數據的處理,因為它們目前實現了最高的分類精度。研究人員解釋說:「輸入數據和一個或多個濾鏡之間的卷積運算(例如可以突出顯示照片中的邊緣)可以很好地轉移到我們的矩陣體系結構中。」利用光進行信號傳輸使處理器能夠通過波長多路復用執行並行數據處理,這導致更高的計算密度,並且僅需一個時間步就可以進行許多矩陣乘法。與通常在低GHz範圍內工作的傳統電子產品相比,光調製速度可以達到50至100 GHz範圍。這意味著該過程允許數據速率和計算密度,即以前未達到的處理器每個區域的操作。
研究結果具有廣泛的應用範圍。例如,在人工智慧領域,可以同時處理更多數據,同時節省能源。較大的神經網絡的使用可以實現更準確,迄今為止無法實現的預測和更精確的數據分析。例如,光子處理器支持在醫學診斷中評估大量數據,例如以特殊成像方法生成的高解析度3D數據。進一步的應用在自動駕駛汽車領域中,這取決於對傳感器數據以及提供存儲空間,計算能力或應用軟體的IT基礎架構(如雲計算)的快速評估。