Science重磅!用光速實現深度學習,跟GPU說再見

2020-12-05 36氪

編者按:本文自來「新智元(AI_era)」;36氪經授權轉載。

如果說GPU養大了深度學習,那麼如今深度學習的胃口早已經超越了GPU。

當然,GPU在不斷發展,也出現了TPU、IPU、MLU來滿足這頭巨獸。

深度學習對算力的需求沒有止境,但受制於能耗和物理極限,基於矽基的電子元件雖然現在還能支撐,但遠處那堵幾乎不可逾越的高牆已然顯現。

怎麼辦?

光速深度學習!

今天,Science發表了加州大學洛杉磯分校(UCLA)研究人員的最新研究:All-optical machine learning using diffractive deep neural networks,他們使用 3D 列印打造了一套 「全光學」 人工神經網絡,可以分析大量數據並以光速識別目標。

論文地址:http://science.sciencemag.org/content/361/6406/1004

這項技術名為衍射深度神經網絡( diffractive deep neural network,DNN),它使用來自物體的光散射來識別目標。該技術基於深度學習的被動衍射層設計。

研究團隊先用計算機進行模擬,然後用 3D 印表機打造出 8 平方釐米的聚合物層。每個晶圓表面都是不平整的,目的是為了衍射來自目標的光線。

衍射深度神經網絡由一系列聚合物層組成,每層大約 8 平方釐米。利用網絡區域內的光的衍射傳播路徑來識別目標。

研究人員使用 THz 級頻率的光穿透 3D 列印的網絡層。每一層網絡由數萬個像素組成,光可以通過這些像素傳播。

研究人員為每類的目標分配像素,來自目標的光被衍射到已分配給該目標類型的像素上。這樣,衍射深度神經網絡就能夠識別目標,其耗時與計算機 「看到」 目標所花費的時間相仿。

DNN: 光速實時學習,成本不到 50 美元

而隨著來自不同目標的光通過 DNN, 研究人員利用深度學習訓練神經網絡,以學習每個目標產生的衍射光圖案。

「我們使用逐層製造的無源元件,並通過光的衍射將這些層相互連接起來,打造一個獨特的全光平臺,可以以光速執行機器學習任務。」 該研究團隊負責人,加州大學洛杉磯分校教授 Aydogan Ozcan 表示。

「這就像一個由玻璃和鏡子構成的複雜迷宮。光進入衍射網絡,並在迷宮周圍反射,直到其離開該區域為止。系統能夠根據某目標產生的大部分光最終離開迷宮的路徑,確定究竟是哪個目標。」Ozcan 說。

在實驗中,研究人員將圖像放在 THz 級頻率的光源前。 DNN 通過光學衍射對圖像進行觀察。研究人員發現,該設備可以準確識別手寫的數字和衣服,這兩類對象都是人工智慧研究中的常用目標。

圖為 DNN 設備識別文本

在訓練中,研究人員還該將設備作為成像的鏡頭,就像一般的相機鏡頭一樣。

由於 DNN 的組成可以由 3D 列印製造,成本低廉,可以構建規模更大、數量更多的層,製造出包含數億個人工神經元(像素)的設備。規模較大的設備可以同時識別更多的目標,執行更複雜的數據分析。

DNN 的組件成本低廉。研究人員表示,他們使用的 DNN 設備成本不到 50 美元。

雖然這項研究使用的是 Thz 級光譜中的光,但 Ozcan 表示,也可以打造使用可見光、紅外線或其他頻率光譜的神經網絡。他表示,除 3D 列印外,DNN 也可以使用光刻或其他印刷技術打造。

全光學衍射深度神經網絡(DNN)的 3D 列印衍射板

DNN的設計和性能:MNIST分類準確率達到91.75%

在論文中,研究人員介紹了DNN框架的技術細節、實驗和測試性能。

在DNN全光學深度學習框架中,神經網絡物理上由多層衍射表面(diffractive surfaces)形成,這些衍射表面協同工作以光學地執行網絡可以統計學習的任意功能。雖然這個物理網絡的推理和預測機制都是光學的,但其學習部分是通過計算機完成的。

研究者將這個框架稱為衍射深度神經網絡( diffractive deep neural network,DNN),並通過模擬和實驗證明了其推理能力。DNN可以通過使用幾個透射和/或反射層進行物理創建,其中給定層上的每個點都傳輸或反射進來的光波,每個點代表一個人工神經元,通過光學衍射連接到後續的層。如圖1A所示。

圖1:衍射深度神經網絡DNN

DNN 中的人工神經元通過由通過振幅和相位調製的次級波連接到下一層的其他神經元。圖1D是標準深度神經網絡的一個類比,可以將每個點或神經元的傳輸或反射係數視為一個「bias」項,這是一個可學習的網絡參數,在訓練過程中使用誤差反向傳播方法進行迭代調整。

經過這一數值訓練階段, DNN的設計就固定了,並且確定了各層神經元的傳輸或反射係數。這種 DNN設計可以以光速執行所訓練的特定任務,僅使用光學衍射和無源光學器件(passive optical components)或無需功率的層,從而創建一種高效、快速的方式來實現機器學習任務。

一般來說,每個神經元的相位和振幅可以是可學習的參數,在每一層提供復值調製(complex-valued modulation),這改善了衍射網絡的推理性能。 對於phase-only調製的同調傳輸網絡,每層可以近似為一個薄的光學元件(圖1)。通過深度學習,在輸入層饋送訓練數據並通過光學衍射計算網絡輸出,每一層的神經元的phase value迭代調整(訓練)來執行一個特定的函數。

在計算目標輸出誤差的基礎上,通過誤差反向傳播算法優化網絡結構及其神經元相位值。誤差反向傳播算法基於傳統深度學習中的隨機梯度下降法。

DNN性能:MNIST手寫數字數據集

為了演示 DNN框架的性能,我們首先將其訓練成一個數字分類器,對從0到9的手寫數字進行自動分類(圖1B)。

為了完成這項任務,我們設計了一個五層的DNN,其中包含來自MNIST手寫數字數據集的5.5萬張圖像(5000張驗證圖像)。我們將輸入數字編碼到DNN輸入域的幅值中,訓練衍射網絡將輸入數字映射到10個檢測器區域,每個檢測器區域對應一個數字。分類標準是尋找具有最大光信號的檢測器,相當於網絡訓練過程中的損失函數。

在訓練之後,使用來自MNIST測試數據集的10000個圖像(未用作訓練或驗證圖像集)對DNN數字分類器進行數值測試,並且實現了91.75%的分類精度(圖3C)。

根據這些數值結果,我們將這個5層的DNN 設計3D列印出來(下圖),每一層的面積為8cm×8cm,然後在衍射網絡的輸出平面定義10個檢測器區域(圖1B)。

圖2:3D列印的DNN的實驗測試

然後,我們使用0.4 THz的連續波光照來測試網絡的推理性能(圖2,C和D)。

每一層神經元的相位值用3D列印神經元的相對厚度進行物理編碼。對這個5層的DNN設計的數值測試顯示,在 ~10000幅測試圖像中,分類準確率達到91.75%(圖3C)。

圖3: DNN手寫數字識別器的性能

DNN性能:Fashion-MNIST數據集

接下來,為了測試DNN框架的分類性能,研究者使用了一個更複雜的圖像數據集——Fashion-MNIST數據集,其中包含10個類別的時尚產品。

DNN對Fashion-MNIST數據集的分類結果如下圖所示。具有N = 5個衍射層的phase-only和complex valued的DNN的分類精度分別達到81.13%和86.33%。

通過將衍射層的數量增加到N = 10,並將神經元的總數增加到40萬,DNN的分類精度提高到86.60%。對比而言,在已有研究中,基於卷積神經網絡的標準深度學習,使用~890萬可學習參數和~250萬個神經元,Fashion-MNIST分類準確度的最高性能為96.7%。

光學神經網絡的應用

光學電路深度學習是一項重大突破,而且其現實應用已經逐漸

根據光學領域權威期刊Optica的報導,美國史丹福大學的研究人員已經證明,可以直接在光學晶片上訓練人工神經網絡。這一重大突破表明,光學電路可以實現基於電子的人工神經網絡的關鍵功能,從而可以以更便宜、更快速和更節能的方式執行語音識別、圖像識別等複雜任務。

不僅如此,斯坦福的另一組研究人員還研究出一套小型AI成像系統,採用雙層光學-電子混合計算技術,成像精度和速度均達到電子計算處理器水平。具體說,研究人員在電子計算之前加上一層光學計算,這種AI成像系統在低光照條件下具備更強的成像能力,每個立體像素上的光電子密度最高可達幾十個,同時節約了大量本該用於計算的時間和成本。

具體到這項研究,UCLA的研究團隊表示,他們的 DNN 設備可用於全光學圖像分析、特徵檢測和對象分類任務,還可以實現使用 DNN 執行任務的新相機設計和光學組件。

例如,使用該技術的無人駕駛汽車可以立即對停車標誌作出反應,一旦收到從標誌衍射來的光,DNN 就可以讀取標誌信息。該技術還可用於對大量目標的分類任務,比如在數百萬細胞樣本中尋找疾病的跡象。

「這項研究為基於人工智慧的被動設備提供了新機會,可以對數據和圖像進行實時分析,並對目標進行分類。」Ozcan 說。「這種光學人工神經網絡設備直觀地模擬了大腦處理信息的方式,具備很高的可擴展性,可以應用到新的相機設計和獨特的光學組件設計中,也可用於醫療技術、機器人、安全等領域。」

論文:

http://science.sciencemag.org/content/361/6406/1004

參考連結:

https://www.photonics.com/Articles/All-Optical_Diffractive_Deep_Neural_Network_Is/a63751

https://newatlas.com/diffractive-deep-neural-network-uses-light-to-learn/55718/

相關焦點

  • 3D列印出來的深度神經網絡,光速求解AI數學運算
    由於當前的深度學習需要大量並行計算,GPU 成了更廣泛的選擇。但即使最先進的 GPU 也是用矽和銅製成的,信息需要沿著錯綜複雜的電路以脈衝的形式傳播。這就意味著,不論是執行新的計算還是重複的計算,傳統 GPU 都會產生能耗。因此,當深度學習中的這些「層」已經完成訓練,並且所有參數的值都確定下來,它還會一次次地重複計算與耗能。
  • 基於RTX2060構建TensorFlow-gpu(keras)學習平臺
    conda remove -n your_env_name(虛擬環境名稱) --all 刪除虛擬環境7. conda remove --name your_env_name package_name 刪除環境中的某個包二、創建環境及安裝notebook插件(安裝基本的anconda版本,用的
  • 自建GPU伺服器:搭建自己的深度學習PC - CIO頻道 - 企業網D1Net...
    搭建自己的GPU伺服器並不困難,這樣做還可以輕鬆地降低在雲中訓練深度學習模型的成本。 很多深度學習的實踐者們渴望在有生之年搭建自己的深度學習機器,擺脫雲的魔掌,這樣的時代就到來了。雲計算是開展深度學習的理想選擇,它往往是訓練大規模深度學習模型的最佳答案。
  • 基於TensorFlow2.0的中文深度學習開源書來了!GitHub趨勢日榜第一
    十三 發自 凹非寺 量子位 報導 | 公眾號 QbitAITensorFlow 2.0 發布已有一個半月之久,你會用了嗎?近日,一個叫做深度學習開源書的項目在火了。因為這是一本基於TensorFlow 2.0 正式版的中文深度學習開源書。還包含電子書和配套原始碼。話不多說,一起來看看這本爆款書籍吧!
  • 內核融合:GPU深度學習的「加速神器」
    【按:在深度學習「紅透」半邊天的同時,當前很多深度學習框架卻面臨著共同的性能問題:被頻繁調用的代數運算符嚴重影響模型的執行效率。本文中,微軟亞洲研究院研究員薛繼龍將為大家介紹能夠輕鬆玩轉計算性能的「加速神器」——內核融合,探討內核融合在加速深度學習上的主要方法以及當前面臨的主要挑戰。】
  • 能實現比TensorFlow更好的深度學習嗎?
    作者:Max Woolf機器之心編譯參與:Jane W、吳攀Keras 是由 Franois Chollet 維護的深度學習高級開源框架,它的底層基於構建生產級質量的深度學習模型所需的大量設置和矩陣代數。Keras API 的底層基於像 Theano 或谷歌的 TensorFlow 的較低級的深度學習框架。
  • 亞馬遜加持,英偉達A100 GPU將無人匹敵?
    每個P4d實例具有8個NVIDIA A100 gpu。如果需要更高的性能,客戶可以使用AWS的EFA一次訪問超過4,000個gpu。 AWS的EC2副總裁Dave Brown表示, 「我們的客戶使用AWS服務構建、培訓和部署機器學習應用程式的速度非常快。
  • 兩個提高深度學習訓練效率的絕技
    不同於hadoop和spark等分布式數據處理框架,深度學習訓練因為要涉及參數的前項傳播和反向傳播,有兩種並行方式: 模型並行( model parallelism ):分布式系統中的不同機器(GPU/CPU等)負責網絡模型的不同部分,通常是神經網絡模型的不同網絡層被分配到不同的機器,或者同一層內部的不同參數被分配到不同機器。一般是超大的模型,一張顯卡放不下的情況,如NLP的模型。
  • Nature重磅:科學家利用深度強化學習使全自動環境監測實現
    但是,如何實現高空氣球的自主導航,一直是科學研究的一個難題。近日,來自谷歌研究院(Google Research )和 Alphabet 旗下公司 Loon 的研究人員組成的科研團隊,成功開發出的一種基於深度強化學習的高性能人工智慧控制器,能讓高空氣球一連數周待在原地,並根據環境因素進行實時決策並實現自主導航。
  • 3D列印深度學習神經網絡用光子而不是電子進行計算
    加州大學洛杉磯分校的研究人員創造了一個獨特的全光學平臺,以光速執行機器學習任務。這是一個新穎的想法,使用光線通過多個板而不是電子衍射。對某些人來說,這可能看起來有點像用算盤替換計算機,但加州大學洛杉磯分校的研究人員對他們的古怪,閃亮,光速的人工神經網絡寄予厚望。
  • 【強化學習實戰】基於gym和tensorflow的強化學習算法實現
    1新智元推薦【新智元導讀】知乎專欄強化學習大講堂作者郭憲博士開講《強化學習從入門到進階》,我們為您節選了其中的第二節《基於gym和tensorflow的強化學習算法實現》,希望對您有所幫助。同時,由郭憲博士等擔任授課教師的深度強化學習國慶集訓營也將於 10 月 2 日— 6 日在北京舉辦。
  • 35 萬行代碼,曠視重磅開源天元深度學習框架 ,四大特性實現簡單開發
    曠視成立初衷是希望把計算機視覺應用於傳統產業,用技術改變世界。當2013年中深度學習剛剛興起之時,清華宿舍中一名實習生埋首兩周,研發出一套人臉識別檢測算法,算法性能技驚四座,於是曠視正式走上用神經網絡解決一切問題的道路。
  • 教程| 如何用TensorFlow在安卓設備上實現深度學習推斷
    她在 Insight 工作的時候,在安卓系統上用 TensorFlow 部署了一個 WaveNet 模型。本文詳細介紹了部署和實現過程。對於個人和公司來說,存在許多狀況是更希望在本地設備上做深度學習推斷的:想像一下當你在旅行途中沒有可靠的網際網路連結時,或是要處理傳輸數據到雲服務的隱私問題和延遲問題時。
  • 一粒沙子以光速撞擊地球會產生什麼後果?科學家:百年後「再見」
    科學家:百年後「再見」光速是宇宙中最快的速度,依照人類目前的科技發展程度來看,人類是難以達到光速的,這也是為什麼人類至今被困在太陽系內的原因。如果人類某一天打造的飛船的航行速度能夠匹敵光速。人類就再也不用擔心需要花費漫長的時間遨遊在外太空中了!
  • 深度學習遇上稀缺數據就無計可施?這裡有幾個好辦法!
    你是能繼續使用是深度學習的能力,還是已無計可施?下面就讓我介紹幾個在有限的數據上使用深度學習的方法,以及闡述為什麼我認為這可能是未來研究中最令人興奮的領域之一。一、先從簡單的開始在我們探討在有限的數據上使用深度學習的方法之前,請先從神經網絡後退一步,建立一個簡單的基線。
  • 盤點:GPU加速的神經網絡與JavaScript的交叉
    對於一個給定的函數f(x)定義了受支持的張量操作,梯度函數可以用grad來得到。多變量案例由multigrad覆蓋。除了AD之外,項目的方向似乎並不完全清楚。雖然在網站上提到了「類似numpy 的基礎架構」作為目標,但是API在「繁重的開發」下,包括與神經網絡和計算機視覺相關的功能。使用load函數,可以解析npy文件的內容並作為張量使用。
  • Deep CARs:使用Pytorch學習框架實現遷移學習
    全文共13449字,預計學習時長26分鐘或更長圖片來源:https://www.pexels.com/photo/vehicles-parked-inside-elevated-parking-lot-63294/如何讓電腦識別不同的汽車品牌?想用手機拍任何一輛車就能知道車的牌子嗎?本文將介紹一個能識別196種類型汽車的模型。
  • 《Science》世界愛眼日發表眼科重磅研究
    北京時間6月6日凌晨,《Science》呼應世界愛眼日,發表了一篇眼科重磅研究。在工業化國家,與年齡相關的黃斑變性和色素性視網膜炎是全球範圍內導致視力損傷的主要原因之一,有近2億人受到影響。視網膜中的光感受器負責捕獲來自環境的光。病變的光感受器失去對光的敏感性,導致視力受損甚至完全失明。
  • 真相|非洲三國緣何跟國際刑事法院說再見
    (原標題:真相|非洲三國緣何跟國際刑事法院說再見)
  • 用Java實現目標檢測|PyTorch
    這篇來自AWS軟體工程師的投稿,結合實例,詳細介紹了DJL這個為Java開發者設計的深度學習庫:5分鐘,你就能在PyTorch上,用Java實現目標檢測。5分鐘,用Java實現目標檢測文 / 知乎用戶@LankingPyTorch在深度學習領域中的應用日趨廣泛,得益於它獨到的設計。無論是數據的並行處理還是動態計算圖,一切都為Python做出了很多簡化。