AI晶片新玩法!圖像處理速度提升2萬倍,傳感器當神經網絡用

2020-12-06 智東西

芯東西(ID:aichip001)文 | 雲鵬 心緣

芯東西3月5日消息,《Nature》刊登一則新研究,提供了一種新穎的AI視覺晶片研發方向。

維也納大學的電氣工程師Lukas Mennel和他的同事們研發了一種新型的超高速機器視覺設備,用圖像傳感器將圖像處理速度提升至傳統技術的數千甚至上萬倍。

Mennel介紹說:「我們的圖像傳感器在工作時不會消耗任何電能,被檢測的光子本身就可以作為電流供能。」

他著重提到,傳統的機器視覺技術通常能夠每秒處理100幀圖像,一些更快的系統則可以每秒處理1000幀,相比之下,「我們的系統每秒可以處理2000萬幀。」

據悉,其視覺系統設計模仿了大腦對信息處理的方式,只用納秒級時間就能完成簡單圖像的分類。

Nature 579, 32-33 (2020)

doi: 10.1038/d41586-020-00592-6

一、將圖像傳感器變成人工神經網絡

現代圖像傳感器最早在1970年代初開發出來,主要分為電荷耦合器件和有源像素傳感器兩種類型。

這些傳感器能從環境中準確捕獲視覺信息,但同時也會生成大量冗餘數據,而傳感器與處理單元之間大量數據的移動,往往會導致高功耗和延遲問題。

如今汽車、機器人、工業製造等領域的視覺應用都對延遲非常敏感,要求儘可能實現實時處理和決策,而受帶寬限制,把所有數據都送到雲端處理很難解決延時問題,邊緣計算逐漸成為剛需。

另外,由於傳感器通常會產生模擬輸出,而模數轉換既耗時又耗能,因此模擬處理要好過數字處理。

維也納大學研究人員們試圖通過減少中間步驟來加快機器視覺,他們直接在圖像傳感器中實現了人工神經網絡(ANN)。

▲ 輸入信息在視覺傳感器內進行計算,實現智能,高效的預處理

傳統AI視覺傳感器的處理過程如圖(a)所示,傳感器收集信號,通過模數轉換器(ADC)將模擬信號轉換為數位訊號,放大後輸入到外部人工神經網絡(ANN),經參數調優訓練神經網絡。

ANN的輸入層接收編碼簡單物理元素的信號(點、線),這些信號在隨後的層中被優化為中級特徵(簡單形狀),最後在輸出層上形成精細的圖像(3D形狀),總體響應可能很慢而且耗能。

而Mennel等人研發的視覺系統如圖(b)所示,晶片上的互連傳感器(正方形)不僅可以採集信號,而且還可以用作ANN來識別簡單特徵,從而減少了傳感器和外部電路之間的冗餘數據移動。

二、傳感器中集成權重,減少冗餘數據移動

研究人員們在晶片上構建了一個光電二極體網絡。

這些光電二極體是對光敏感的微小單元,每個單元都包含幾個原子層的二硒化鎢,二硒化鎢是一種可調節光響應的二維半導體材料。

▲浮柵光電二極體示意圖

通過更改施加的電壓,可以增加或減少該半導體對光的響應,從而分別調節每個二極體的靈敏度。

改變光電二極體的光響應性,會改變網絡中的連接權重。

▲epoch 1和epoch 30時的編碼器光響應值(左)和解碼器權重(右)

相當於把網絡的訓練結果直接放在傳感器端,不用經過把訓練權重送到外部存儲器這一過程。

這就將光電傳感器網絡變成了神經網絡,並使其能夠執行簡單的計算任務。

▲ ANN光電二極體陣列的電路

三、功能演示:分類和自動編碼

研究人員們將光電二極體排列成9個像素的正方形陣列,每個像素3個二極體。

當圖像投影到晶片上時,晶片會生成、讀取各種二極體產生的電流。

硬體陣列提供了一種模擬計算形式:每個光電二極體都會產生與入射光強度成比例的輸出電流,並且根據基爾霍夫定律將沿行或列得出的電流相加。

然後就可以訓練陣列來執行相應任務了。

▲訓練算法流程圖(藍色陰影框是與ANN光電二極體陣列的相互作用)

晶片外分析陣列產生的電流與預測電流之間的差異,並用於調整突觸權重以進行下一次訓練周期。

這個學習階段會佔用時間和計算資源,但是一旦經過訓練,該晶片就會迅速執行其設定的任務。

使用不同神經網絡算法,該團隊演示了兩種神經形態功能:分類和自動編碼。

▲a:用於訓練分類器和自動編碼器的實驗設置;b:用於時間分辨測量的實驗設置

(1)分類

他們用3×3像素陣列製作了三個簡化字母:n、v、z。

圖像傳感器經訓練後,只需測量對應電路電流是否為0,就能在納秒級時間內識別該字母。

如果按比例增加陣列的大小,該神經網絡還可以識別更複雜的圖像。

▲識別「n」、「v」、「z」三個字母

(2)自動編碼

即使在存在信號噪聲的情況下,該神經網絡也可以通過學習圖像的關鍵特徵,來生成處理後圖像的簡化表示。

編碼器僅包含最基本的信息,但可以對其進行解碼以重建接近原始圖像。

▲對有噪聲圖像的簡化表示

Mennel指出,系統運行的速度僅受電路中電子移動速度的限制。從原則上講,這種策略的工作速度可以達到數萬億分之一秒,或者比目前演示的速度快三到四個數量級。

▲分類器(a)和自動編碼器訓練(b)30 epoches的數據集,其測試數據噪聲水平分別為σ = 0.4和σ = 0.15

四、離落地還有距離

這樣的傳感器可以用來做什麼?

Mennel說:「目前,這些主要用在特定的科學應用,例如,流體動力學、燃燒過程或機械故障過程可從更快的視覺數據獲取中受益。」

不過,這項技術在實際落地應用之前,還有許多工作要做。

首先,用於自動駕駛車輛和機器人技術的神經形態視覺系統,需要捕獲具有廣闊視野的三維動態圖像和視頻。

而當前使用的圖像捕獲技術通常將3D現實世界轉換為2D信息,丟失運動信息和深度,現有圖像傳感器陣列的平面形狀也限制了廣角相機的發展。

其次,該研究描述的設備很難在昏暗的光線下成像,需要重新設計,以改善薄半導體中的光吸收,並增加可以檢測到的光強度範圍。

再者,該設計需要高電壓並消耗大量功率。相比之下,生物神經網絡中每項操作的能量消耗為10 -15至10 -13焦耳。擴展對紫外線和紅外光的響應,以捕獲在可見光譜不可用的信息也是有用的。

另外所使用的薄半導體難以在大面積上均勻地生產,並且難以加工,因此它們可以與矽電子器件集成在一起,例如用於讀出或反饋控制的外部電路。

使用這些傳感器的設備的速度和能源效率將不取決於圖像捕獲過程,而是取決於傳感器和外部電路之間的數據移動。

而且,儘管傳感器計算單元在模擬域中採集和計算數據,減少了模數轉換,但是外圍電路仍然存在固有延遲問題。傳感器和外部電路將需要共同開發來減少整個系統的等待時間。

結語:實時邊緣計算的創新路徑

Mennel及其同事的「傳感器中計算」系統是對AI硬體研究非常有趣的探索。

此前少數公司已經開發了基於矽電子的AI視覺晶片,但這些晶片的固有數字體系結構往往帶來延遲和電源效率問題。

更廣泛地說,該研究團隊的策略不僅限於視覺系統,它可以擴展到用於聽覺、觸覺、熱感以及嗅覺等其他物理輸入。

此類智能系統的開發以及5G高速無線網絡的到來,會讓實時(低延遲)邊緣計算成為可能。

文章來源:IEEE,Nature

相關焦點

  • 谷歌用AI設計AI晶片,不到24小時設計出Tensor處理單元
    Arxiv網站上的一篇論文的作者寫道:「我們相信,AI將能夠縮短晶片的設計周期,在硬體與AI算法之間建立共生關係,並進一步推動彼此的進步。」。「我們已經看到,有些算法或神經網絡架構在現有的AI加速器上效果不佳,因為加速器設計類似於兩年前,而那時這些神經網絡架構和算法並不存在。」
  • 索尼IMX500:全球首款集成AI智能的圖像傳感器
    自從 iPhone 8 和 iPhone X 發布以來,蘋果已經使用 AI 智能工具並通過神經引擎來幫助 iPhone 進行圖像處理,該神經引擎已成為 A 系列晶片的一部分。但是未來的 iPhone 可能會採用集成 AI 智能的圖像傳感器。
  • 中科院計算所設計全球首款圖神經網絡加速晶片
    現有的處理器晶片在執行圖神經網絡的計算中效率低下,其團隊前瞻性地展開面向圖神經網絡的加速晶片設計,為解決這一難題提供了可行方案。  讓機器「能理解、會思考」  圖神經網絡被認為是推動認知智能發展強有力的推理方法,有望解決深度學習無法處理的關係推理、可解釋性等一系列問題,讓機器「能理解、會思考」。
  • 思特威:高性能CMOS圖像傳感器晶片設計公司
    全球領先的高性能傳感器解決方案供應商艾邁斯半導體(ams)與高性能CMOS圖像傳感器全球供應商思特威科技(SmartSensTechnology)近日宣布籤署正式合作協議,雙方將在圖像傳感器領域開展深入合作。
  • 中科院計算所率先提出全球首款圖神經網絡加速晶片設計
    目前,介紹該晶片設計的相關論文已先後在計算機體系結構國際頂級會議MICRO和HPCA上發表。「HyGCN,寓意向圖神經網絡的加速說『Hi』。」嚴明玉介紹道,圖神經網絡將深度學習算法和圖計算算法相融合,取長補短,能達到更優的認知與問題處理等能力,在搜索、推薦、風險控制等重要領域有著廣泛應用。
  • AI晶片的發展歷史詳細說明
    1962 年 Rosenblatt 出版《神經動力學原理》及其 1957 年設計的模擬計算器 ,被視作深度神經網絡模型的算法原型。1969 年 ,Minsky 與 Papert出版《感知器》,指出單層神經網絡訓練出來的圖像識別算法連對稱圖形都無法正確識別。
  • 思特威科技推出CMOS圖像傳感器SC200AI,智能安防成理想應用領域
    新基建一詞在不同領域都有所涉及,覆蓋面包括5G、大數據、人工智慧等多個領域,新基建領域下的智能安防也順勢成為時下熱點,備受關注。 在整個智能安防環節中,以視頻監控為主的監控系統環節,涵蓋了整個安防產業當中主要的數據傳輸,最先受到影響並被變革的一個領域將是視頻監控,不僅可以提升畫質和傳輸速度,還能獲取到更多維度的數據。
  • 第六代高通AI引擎、跨平臺統一API人人可用,驍龍888不止於晶片
    在某些用例下,數據交互時效實現了千倍提升。不僅如此,加速器本身也實現了提升,其中標量加速器性能提升50%,張量加速器的矩陣處理速度提升了2倍。基於全新的架構設計,Hexagon每瓦特性能較前代平臺提升高達3倍,並實現了每秒26萬億次運算(26 TOPS)的驚人算力。
  • 深度神經網絡,通過使用數學模型來處理圖像
    打開APP 深度神經網絡,通過使用數學模型來處理圖像 新經網 發表於 2020-12-16 10:22:58   休斯頓大學的一位哲學家在發表於《自然機器智能》上的一篇論文中暗示,關於這些假定故障背後原因的普遍假設可能是錯誤的,這些信息對於評估這些網絡的可靠性至關重要。   隨著機器學習和其他形式的人工智慧越來越深入地融入社會,從自動櫃員機到網絡安全系統,其用途廣泛,UH哲學副教授卡梅倫·巴克納(Cameron Buckner)表示,了解由什麼導致的明顯故障的來源至關重要。
  • 思特威的CMOS圖像傳感器可顯著降低系統功耗
    在圖像傳感器技術領域報告會的開場報告上,SmartSens表示: 」目前,SmartSens正致力於建立人工智慧圖像晶片平臺,設計與研發更為『智慧』的圖像傳感器,助力改變人工智慧和機器視覺的未來。」5G和AI的技術融合勢必將掀起新一輪的機遇浪潮,人工智慧技術將被嵌入各種設備、邊緣計算和雲計算中,用以進行更準確的分析和智能運算。
  • 傳感器熱點:ams推出世界上最小的圖像傳感器
    傳感新品 【ams推出世界上最小的圖像傳感器】 12月10日,全球領先的高性能傳感器解決方案供應商ams宣布預發布業界最小、最輕的100k像素圖像傳感器之一——NanEyeC,以提供適用於移動或可穿戴消費設備(如虛擬實境(
  • MIT開發出輕量級MCU神經網絡系統MCUNet
    麻省理工學院的研究人員開發了一種系統,可以將深度學習的神經網絡帶到新的、小得多的地方,比如可穿戴醫療設備、家用電器中的微型計算機晶片,以及構成「物聯網」(IoT)的2500億個物體。 這個名為MCUNet的系統設計了緊湊的神經網絡,儘管內存和處理能力有限,但它為物聯網設備上的深度學習提供了前所未有的速度和精度。
  • 人工智慧開啟視覺處理新篇章:如何更好的理解這個世界
    視覺晶片集成高速圖像傳感器和大規模並行圖像處理電路,能夠模仿人類視覺系統視覺信息並行處理機制,解決現有視覺圖像系統中數據串行傳輸和串行處理的速度限制瓶頸問題。現在,人工智慧視覺處理已從數據中心迅速發展到邊緣,最新的專用集成電路(ASIC)和片上系統(SoC)IP正在圍繞一個主題發展,即從視覺信息的預處理,到傳統的計算機視覺算法,然後再用神經網絡進行邊緣推理,產生對象檢測、識別以及適當的動作,是包括計算機視覺深度學習在內的多種機器學習的總稱。
  • 中科院計算所研究團隊提出圖神經網絡加速晶片設計
    嚴明玉在受訪時說,圖神經網絡在搜索、推薦、風險控制等重要領域有著廣泛應用。現有的處理器晶片在執行圖神經網絡的計算中效率低下,其團隊展開面向圖神經網絡的加速晶片設計,為解決這一難題提供可行方案。   讓機器「會思考」 設計中「增引擎」   圖神經網絡被認為有望解決深度學習無法處理的關係推理、可解釋性等一系列問題,讓機器「能理解、會思考」。然而由於圖神經網絡在圖數據處理方面的特殊性,傳統用於加速神經網絡的晶片難以直接對圖神經網絡的執行提供高效計算支撐。
  • Nature:用光子處理器提升人工智慧計算速度
    Nature:用光子處理器提升人工智慧計算速度 2021-01-10 11:45 來源:澎湃新聞·澎湃號·湃客
  • 靠一種樣本學習多種氣味 神經擬態晶片拉近AI與人腦距離
    近日,一直致力於模仿人類五感的人工智慧又有新突破,通過神經擬態晶片,人工智慧已經掌握了丙酮、氨和甲烷等10種氣味的神經表徵,強烈的環境幹擾也不會影響它對氣味的準確識別。這項由英特爾研究院與美國康奈爾大學共同參與的研究成果,日前發表於《自然·機器智能》雜誌上。神經擬態即通過模擬人腦神經元的工作機制,讓計算機具備像人一樣的自然智能特性。
  • GOI泛亞投資集團:為AI而生的IPU晶片
    與此同時,更多為機器學習而專門定製的專用晶片開始出現,比如專用集成電路(ASIC)的張量處理單元TPU、神經網絡單元NPU以及半定製晶片FPGA等等。  2018年底,英國一家名為Graphcore的創業公司推出了一種專門用於AI計算的處理器晶片IPU(Intelligence Processing Unit)。一經問世,IPU就受到AI界越來越多的關注。
  • 完美體現華為麒麟810晶片的超強實力 升級版AI跑分高達41838分
    近日,知名跑分網站 ai-benchmark 上公布了麒麟 820 晶片的 AI 跑分,高達 41838 分,僅次於麒麟 990 5G 與聯發科的天璣 1000,排在第三位。據悉,麒麟 820 5G SoC 晶片,在「一代神 U」麒麟 810 的基礎上再次升級:強勁 8 核 CPU 性能提升 27%、新架構 GPU 圖形能力提升 38%、新升級 NPU AI 性能提升 73%。值得注意的是,麒麟 820 採用麒麟 990 同款 Kirin ISP 5.0,支持 BM3D 單反機圖像降噪和視頻雙域降噪。
  • Intel:首款神經擬態研究晶片功耗可比CPU低1000多倍
    與訓練人工智慧系統的通用計算晶片相比,Loihi 晶片的能效提升了 1000 倍。」英特爾高級首席工程師、英特爾研究院神經擬態計算實驗室主任 Mike Davies 在 12 月4 日的 2020 英特爾研究院開放日上表示。2017 年,英特爾首款自主學習的神經擬態研究晶片發布,名為「Loihi」。
  • 歪比歪比,歪比巴卜,神經網絡也該用上加密「通話」了
    有些工作將對抗學習原理引入到隱私保護網絡的設計中,通過對圖像執行退化處理或者加入一些噪聲,如上圖所示,並使用圖像感知損失進行約束來完成對圖像的加密,但是這些操作會影響原有算法的性能,迫使我們在隱私保護能力和模型性能之間尋找一個平衡點。基於此,本文直接對視覺傳感器進行修改,在成像過程中就完成了對圖像的加密處理,在根源上解決問題。