如何在統一架構的同時高效處理各種稀疏度人工神經網絡矩陣?

2020-12-05 機器之心Pro

機器之心發布

機器之心編輯部

物聯網與人工智慧結合的發展趨勢,對神經網絡加速晶片的能效有了更高的要求。由於剪枝和 RELU 等操作,神經網絡的權重和激活矩陣中存在廣泛的稀疏性分布,且不同網絡和同一網絡不同層的稀疏度各不相同,其稀疏度分布範圍高達 4-90%。由於不同稀疏度矩陣運算對於計算和存儲電路要求各不相同,提出一種統一架構同時高效處理各種稀疏度的人工神經網絡矩陣,是人工智慧晶片設計領域的一大難題。

由清華大學電子工程系劉勇攀教授團隊提出的 Sticker 系列人工智慧處理器系統性探索了在晶片架構層次利用網絡稀疏性和低位寬表示以提升晶片推理能效的可能性。團隊遵循「非規則化稀疏-規則化稀疏-稀疏量化協同」的技術路線,自 2018 年相繼發布了 Sticker-I、Sticker-T 等晶片,在晶片推理和片上訓練操作的能效上實現了極大突破。

其中,Sticker-I 神經網絡加速器晶片針對神經網絡中稀疏度分布範圍廣 (4%-90%)、不同稀疏度矩陣運算對計算和存儲電路要求不同的問題,用統一的晶片架構高效支持了不同稀疏度的神經網絡運算。該工作通過動態配置人工智慧晶片的運算和存儲電路,實現了對不同稀疏度神經網絡的自適應處理,大幅提升了人工智慧加速晶片的能量效率,是首款全面支持不同稀疏程度網絡,且同時支持片上網絡參數微調的神經網絡加速晶片。Sticker-I 晶片在 65nm 工藝下,取得 62.1TOPS/W 的峰值核心操作計算能效,並發表在 2018 年國際超大規模集成電路峰會 (Symposia of VLSI Technology and Circuits)。

Sticker-I 晶片照片

STICKER-I 神經網絡加速器硬體架構

Sticker-T 的通用架構可以同時高效支持包括 CNN,RNN 和 FC 在內的主流網絡結構,滿足了不同應用場景的需求,入選了 2019 年初在美國舊金山舉辦的 ISSCC 2019 大會,是中國大陸首篇發表的人工智慧晶片 ISSCC 論文。

進一步,該團隊針對具有規則化稀疏特點的神經網絡,利用算法-架構-電路的聯合優化,提出了基於組循環變換域的通用神經網絡計算晶片 STICKER-T。通過設計高效 FFT 處理器架構、高數據復用計算陣列架構和高性能存儲電路技術,Sticker-T 在能效和面積兩個方面都有著顯著的提升。該晶片可以同時高效支持包括 CNN,RNN 和 FC 在內的主流網絡結構,峰值能效 140TOPS/W 為之前工作的 2.7 倍,而 7.5mm^2 的面積僅為前者的 60%,滿足了不同應用場景的需求。該工作入選了年初在美國舊金山舉辦的 ISSCC 2019 大會,也是中國大陸首篇發表的人工智慧晶片 ISSCC 論文。

Sticker-T 晶片照片

與此同時,在 ISSCC 2019 Student Research Preview 會場上,該團隊的袁哲博士代表團隊展示了在稀疏神經網絡加速領域的最新成果 Sticker-II 晶片。該晶片首次將自適應稀疏和量化進行有機結合的人工智慧晶片。受益於神經網絡稀疏性與低比特量化技術的結合,該晶片相比於上一代 STICKER-I 晶片實現了更高的能量效率。

袁哲博士在 ISSCC2019 展示現場

Sticker 系列人工智慧晶片基於算法-架構-電路的聯合創新,對神經網絡中的非規則化稀疏性、規則化稀疏性和低位寬表示提供了高效支持,其相關成果發表在 ISSCC/VLSI/JSSC 上,受到了學術界和產業界的廣泛關注。在 7 月 29 日-7 月 31 日於瑞士洛桑舉行的 ISLPED』19(ACM/IEEE International Symposium on Low Power Electronics and Design, ISLPED 2019)低功耗電子與設計國際研討會上,Sticker 系列人工智慧晶片獲得了技術委員會的高度認可,並榮獲設計競賽第一名。

湃方科技獲得 ISLPED 19 設計競賽一等獎

Sticker 系列人工智慧晶片從計算 MAC、運算單元以及陣列化三個維度全方位提高晶片的計算能效和靈活性,該晶片的應用市場極其廣闊,覆蓋了智慧工業、智慧城市、智能製造等領域。基於其科研成果成立的人工智慧公司湃方科技全力打造了以人工智慧晶片和工業智能算法為核心技術,以賦能我國產業智能化升級為願景,以為客戶提供跨品類、全棧式設備智能管理解決方案為使命的企業戰略布局,致力於成為業界領先的設備智能化管理服務提供商,加速人工智慧相關技術在各個社會領域的應用,持續打造中國製造「智能+」。

相關焦點

  • 人工智慧神經網絡和生物大腦有什麼區別 神經網絡將如何發展
    關鍵是有機大腦的結構和先天能力,這種觀點在當今的AI社區中大多被駁回,而人工神經網絡主導了這一論點。神經科學冷泉港實驗室教授Anthony Zador在同行評審期刊《自然》上發表的一篇論文中指出,這是一個高度結構化的大腦,可以使動物成為非常高效的學習者。
  • ISSCC 2019 | 清華大學團隊研製高能效通用神經網絡處理器晶片...
    機器之心發布湃方科技2 月 20 日,來自清華大學線路所的劉勇攀副教授團隊在美國舊金山舉辦的第 66 屆國際固態電路會議(簡稱 ISSCC 2019)發表了基於循環矩陣壓縮方法的通用神經網絡加速器晶片 STICKER-T。
  • 北大、微軟亞洲研究院:高效的大規模圖神經網絡計算
    新智元報導 來源:arXiv編輯:肖琴【新智元導讀】第一個支持圖神經網絡的並行處理框架出現了!北京大學、微軟亞洲研究院的研究人員近日發表論文,提出NGra,這是第一個支持大規模GNN的系統。我們的評估表明,NGra可以擴展到現有框架無法直接處理的大型實際圖形,而在TensorFlow的multiple-baseline設計上,即使在小規模上也可以實現約4倍的加速。第一個支持大規模GNN的系統NGra是第一個支持大規模GNN(圖神經網絡)的系統,這是一個在GPU上可擴展、高效的並行處理引擎。
  • 利用類腦器件高效處理神經信號,構建新型腦機接口
    憶阻器是一種新型信息處理器件,其電導狀態可以通過外加電壓激勵驅動離子遷移來調節。憶阻器的工作機理與人腦中的神經突觸、神經元等具有一定的相似性,基於憶阻器的神經形態計算可以突破傳統計算架構,在實現高並行度的同時顯著降低功耗,因此在腦機接口領域有著巨大的應用潛力。
  • MIT新突破:Nature Photonics揭秘新型光學深度神經網絡系統
    隨著以深度學習為代表的人工智慧技術的興起,人們也開始關注如何開發出能更有效、更高速地執行神經網絡運算的計算硬體。近日,麻省理工學院(MIT)的研究者在 Nature Photonics 上發表的一篇論文《Deep learning with coherent nanophotonic circuits》提出了一種使用光子技術實現神經網絡的方法,而且他們還已經對這一概念進行了實驗驗證。
  • Twitter團隊最新研究:快速高效的可擴展圖神經網絡SIGN
    字幕組雙語原文:Twitter團隊最新研究:快速高效的可擴展圖神經網絡SIGN英語原文:Simple scalable graph neural networks翻譯:雷鋒字幕組(季一帆、何月瑩)在這篇文章中,我們描述了Twitter開發的一種簡單的圖神經網絡架構,該架構可以處理大量的圖。本文由Fabrizo Frasca 和 Emanuele Rossi 合著。圖神經網絡(GNN)是一種新型的ML模型,專門用於處理圖數據。在不同領域,GNN可成功實現領域內關係及相互作用建模,如社會科學,計算機圖形與視覺,粒子物理學,化學和醫學。
  • 機器視角:長文揭秘圖像處理和卷積神經網絡架構
    我嘗試去理解神經網絡及其變體,但依然感到困難。接著有一天,我決定一步一步,從基礎開始。我把技術操作的步驟分解開來,並手動執行這些步驟(和計算),直到我理解它們如何工作。這相當費時,且令人緊張,但是結果非凡。現在,我不僅對深度學習有了全面的理解,還在此基礎上有了好想法,因為我的基礎很紮實。隨意地應用神經網絡是一回事,理解它是什麼以及背後的發生機制是另外一回事。
  • 科學家研製出人工樹突器件,實現新型神經網絡
    近日,清華大學微電子所、未來晶片技術高精尖創新中心的錢鶴、吳華強教授團隊與合作者在《自然•納米科技》(Nature Nanotechnology)在線發表了題為「基於人工樹突的高效神經網絡」(Power-Efficient Neural Network with Artificial Dendrites)的研究論文,通過引入具有豐富動態特性的人工樹突計算單元,構建了包含突觸、樹突以及胞體的新型人工神經網絡
  • 人工神經網絡的五大主要應用場景
    理解人工神經網絡人工神經網絡像人腦一樣構建,神經元節點像網絡一樣相互連接。人腦有數千億個叫做神經元的細胞。每個神經元都是由一個負責處理信息的細胞體組成,該細胞體是大腦進行信息的輸入以及輸出的基礎。一個ANN有數百個或數千個被稱為處理單元的人工神經元,它們通過節點相互連接。這些處理單元由輸入和輸出單元組成。
  • 初學者怎麼選擇神經網絡環境?對比MATLAB、Torch和TensorFlow
    這篇論文是關於人工神經網絡(ANN,[1,2])的,因為這是目前最熱門的主題,並且在許多人工智慧任務上都達到了當前最佳的水平。在單獨介紹了每一種框架之後,我們同時也給出實現一些一般常見問題的設置方法,從而使它們的比較更簡單。
  • 3D 列印造出人工神經網絡,UCLA團隊實現全光學機器學習
    研究團隊首先提出了一種全光學的深度學習框架——衍射深度神經網絡(Diffractive Deep Neural Network,D2NN),該架構採用基於深度學習算法的無源衍射層(passive diffractive layers)設計,經誤差反向傳播法(error back-propagation method)訓練後,能夠以接近光速的高速處理能力,實現多種機器學習的複雜功能
  • 人工神經網絡研究的發展歷程及重要特性
    人工神經網絡研究的先鋒麥卡洛克和皮茨曾於1943年提出一種叫做「似腦機器(mindlike machine)」的思想,這種機器可由基於生物神經元特性的互連模型來製造,這就是神經學網絡的概念。他們構造了一個表示大腦基本組成部分的神經元模型,對邏輯作業系統表現出通用性。
  • 清華制人工神經網絡晶片,能效比GPU高兩個數量級
    (原標題:清華用憶阻器制人工神經網絡晶片,能效比GPU高兩個數量級)
  • 基於憶阻器的神經網絡應用研究
    神經網絡的發展一方面是基於對生物大腦的理解更貼切地去模擬其工作機制,如第三代人工神經網絡——脈衝神經網絡的提出與發展;另一方面是以片上網絡配合軟硬體以數學建模的方式來模擬腦內神經傳導系統,目標側重於理解腦部信號傳導的方式,以從計算仿真角度反向助於了解大腦的運作方式。 在新型神經形態硬體方面,器件、電路以及整體架構設計都是極其重要的研究方向。
  • CVPR 2019 神經網絡架構搜索進展綜述
    原標題:Neural Architecture Search at CVPR 2019作者 | Vladimir Nekrasov編譯 | 林肯二百一十三(西安交通大學)我相信,每個深度學習研究者和從業者都多多少少地考慮過在他們處理的具體問題上應該使用什麼樣的神經網絡架構。很多人都殫精竭慮地嘗試提出像AlexNet、VGG以及ResNet那樣的有效架構。
  • 我們實際上生活在矩陣中嗎?整個宇宙都是神經網絡?
    物理學家試圖用有爭議的理論重新定義現實,即整個宇宙都是神經網絡  神經網絡是一種在結構上類似於人類大腦的互連計算系統,但最近有科學家提出了一個有爭議的理論,認為整個宇宙都是神經網絡。  計算機科學家創造的人工神經網絡,由處理和傳遞信號的各種節點組成,這些節點類似於生物神經元。網絡可以隨著使用而改變——比如增加賦予某些節點和連接的權重,從而在運行過程中,整個網絡可以不斷「學習」。例如,讓神經網絡查看一組貓的圖片,然後神經網絡可以自己學習貓的特點,進而從一群動物中找出貓來。
  • 我們實際上生活在矩陣中嗎?整個宇宙都是神經網絡?
    物理學家試圖用有爭議的理論重新定義現實,即整個宇宙都是神經網絡新浪科技訊 北京時間9月15日消息,據國外媒體報導,神經網絡是一種在結構上類似於人類大腦的互連計算系統,但最近有科學家提出了一個有爭議的理論,認為整個宇宙都是神經網絡。計算機科學家創造的人工神經網絡,由處理和傳遞信號的各種節點組成,這些節點類似於生物神經元。
  • 如何通過人工神經網絡實現圖像識別?
    人工神經網絡(Artificial Neural Networks)(簡稱ANN)系統從20 世紀40 年代末誕生至今僅短短半個多世紀,但由於他具有信息的分布存儲這裡討論的是將要識別的目標物體用成像頭(紅外或可見光等)攝入後形成的圖像信號序列送入計算機,用神經網絡識別圖像的問題。一、BP 神經網絡BP 網絡是採用Widrow-Hoff 學習算法和非線性可微轉移函數的多層網絡。
  • 基於憶阻器的神經網絡應用研究
    神經網絡的發展一方面是基於對生物大腦的理解更貼切地去模擬其工作機制,如第三代人工神經網絡——脈衝神經網絡的提出與發展;另一方面是以片上網絡配合軟硬體以數學建模的方式來模擬腦內神經傳導系統,目標側重於理解腦部信號傳導的方式,以從計算仿真角度反向助於了解大腦的運作方式。在新型神經形態硬體方面,器件、電路以及整體架構設計都是極其重要的研究方向。
  • Nature子刊批人工神經網絡:先天結構比後天訓練更重要
    但人工神經網絡還不具備這種能力。但這也表明,AI有潛力通過類似的方式快速學習。也就是說,通過反思當前的研究方式能夠發現,我們現在關於深度學習的研究從出發點的側重似乎就搞錯了,先天架構比後天訓練重要得多。這個結論一出現,就在推特上引發了巨大的反響,不到一天,點讚數超過了1.8K,各大論壇上也少不了各種討論。