Imagination發布其最新一代IMG Series4神經網絡加速器產品

2020-12-17 電子發燒友

Imagination發布其最新一代IMG Series4神經網絡加速器產品

半導體行業觀察 發表於 2020-12-14 16:50:37

隨著智能駕駛和自動駕駛等應用越發火熱,汽車AI晶片市場在最近幾年進入了高速發展期。無論是NXP和瑞薩這樣的傳統汽車晶片廠,還是如英偉達和英特爾這樣的消費晶片大廠,甚至是FPGA龍頭Xilinx,都對這個市場虎視眈眈。此外,國內外也有一大波初創晶片企業湧入這個市場。 Imagination作為全球半導體IP大廠,已推出多代AI加速產品,獲得了良好的市場反響,可以為汽車晶片廠商打造高性能車用AI晶片提供強有力的支持。日前,Imagination發布其最新一代IMG Series4神經網絡加速器(NNA)產品,該公司視覺和人工智慧部門高級總監Andrew Grant在接受媒體採訪時指出:「雖然目前市場上已經有能滿足自動駕駛需求的AI晶片,但功耗不夠理想。所以,我們花兩年時間去了解和評估客戶需求,推出了高性能低功耗的4系列NNA產品,並且將自動駕駛作為主打市場」。

Andrew Grant還介紹道,IMG Series4 NNA採用了全新的多核架構,能提供高達600 TOPS的算力,從而為ADAS和自動駕駛等應用提供高效支持。Imagination之所以能提供性能如此強悍的產品,得益於公司多年來在IP領域的深厚積累。

IP專家的步步為「贏」

在談及Imagination的時候,大家首先想到的就是他們在手機GPU IP市場的影響力。

從Imagination提供的數據也可以看到,他們在移動GPU IP市場的份額已經達到35.5%,這幫助他們超越Arm Mali系列和高通Adreno系列,登上移動GPU IP龍頭的位置。除了移動GPU以外,Imagination在車載GPU IP市場也幾乎拿下了半壁江山。數據顯示,他們在這個市場的佔有率高達43%。

此外,Imagination在近來熱門的AI 市場也布局多年。據介紹,Imagination在過去七年裡持續加大對AI研發的投入,公司迄今已擁有超過80項針對AI領域的專利,並推出了一系列神經網絡加速器IP產品。 這系列IP是一個從0開始設計的完整、獨立式的硬體IP神經網絡加速器,可以同時支持CNN、RNN、LSTM三種神經網絡類型,並且可支持caff、caffe2、Google TensorFlow等通用機器學習體系架構,還支持可適用於移動端的TensorFlow Lite、caffe2go等機器學習體系架構。再加上這系列內核可在最小的矽面積上以非常低的功耗實現高性能的神經網絡計算,因此自面世以來獲得了客戶的高度認可。Imagination在過去幾年裡也在快速迭代該系列IP。

2017年9月,Imagination發布了旗下首款神經網絡加速器PowerVR Series 2NX NNA,其單核性能僅覆蓋1 TOPS到4.1 TOPS的範圍;而到了2018年推出的第二代PowerVR 3NX,單核性能不但覆蓋了0.6 TOPS到10 TOPS,其多核產品性能更是能做到20 TOPS到160 TOPS,可以滿足從L2級到L5級自動駕駛的邊緣推理需求。 而文章開頭談到的IMG Series 4NNA則是Imagination推出的第三代NNA。 Andrew Grant表示,這款公司歷時兩年打造出來的產品不但在性能上獲得大幅度提升,還擁有靈活的多核設計、創新性的Tensor Tiling( Imagination’s Tensor Tiling,ITT)技術、低功耗和滿足車規級安全需求等多項優勢,從而能為領先的汽車行業顛覆者、一級供應商、整車廠(OEM)和汽車系統級晶片(SoC)廠商提供強大助力。

IMG Series4 NNA 的強勢出擊

根據Andrew Grant的觀點,當前的車載AI晶片擁有三方面的需求,分別是超強性能、超低功耗和超低延遲。當然,作為汽車級別的晶片,安全也是必不可少的,這就是IMG Series 4 NNA的設計指導。

從官方提供的資料我們可以看到,Series4具有以下特性: 首先是多核擴展性和靈活性方面,據Imagination介紹,其多核架構支持在多個核之間對工作負載進行靈活的分配和同步。Imagination的軟體提供了精細的控制能力,並通過對多個工作負載進行批處理、拆分和調度而提高了靈活性,現在可以在任意數量的內核上使用。Series4可為每個集群配置 2個、4個、6個或者8個核。

其次是性能。據介紹,Series4的每個單核能夠以不到一瓦的功耗提供12.5 TOPS的性能。舉例來說,一個8核集群在5nm工藝的加持下,可以提供100 TOPS的算力。那就代表著配有6個8核集群的解決方案可以提供600 TOPS的算力。來到AI推理方面,Series4 NNA的性能比嵌入式GPU快20倍以上,與嵌入式CPU相比,更是快了1000倍。

第三,超低延遲也是這一代NNA IP的另一個特性。據了解,通過將多個單核組成2核、4核、6核或8核的多核集群,所有內核可以相互協作,並行處理一個任務。這就降低了處理延遲,縮短響應時間。數據顯示,對於一個8核集群,理想情況下延遲會減少為單核獨立執行時的1/8。節省大量帶寬則是Imagination新NNA的另一大優勢,這主要得益於公司正在申請專利的的Tensor Tiling技術(Imagination’s Tensor Tiling,ITT),這也是Series4中新增的功能。據介紹,藉助這項技術,Imagination的Series4可以通過對計算任務進行tiling,充分利用片上存儲,提升數據處理效率,並節省訪問外部存儲的帶寬。

在具體操作中,針對不同的任務,有不同的操作方式。據了解,在批處理大量的小型任務時,Tensor Tiling能夠把批處理任務分配到各個NNA單核,讓每個NNA單核獨立工作,提升並行處理的能力;而在面對一些大型網絡的時候,Tensor Tiling則可以從多個維度拆分任務,讓所有NNA單核共同執行一個推理任務。這不但減少了網絡推理的延遲,在理想情況下,協同並行處理的吞吐量與獨立並發處理也是相同的。 值得一提的是,這裡的拆分都是通過Imagination的編譯器來完成的,不需要開發者手動操作,藉助NNA的性能分析工具,開發者還能對AI任務進行更好的調度和分配。

另外,因為利用本地數據的依賴性將中間數據保存在片上存儲器中,ITT可以最大限度地減少將數據傳輸至外部存儲器,從而將帶寬降低多達90%。作為一種可擴展的算法,ITT在擁有大量輸入數據的網絡上具有顯著優勢。車規級安全性則是Series4不得不提的另一個優勢。眾所周知,汽車晶片對安全提出了更高的要求。Imagination為其全新的NNA引入了IP級別的安全功能,且產品的設計流程符合ISO 26262標準,這就能幫助客戶更容易獲得ISO 26262認證。據報導,Series4可以在不影響性能的情況下,安全地進行神經網絡推理。硬體安全機制可以保護編譯後的網絡、網絡的執行和數據處理管道。

在IMG Series4 NNA的發布會上,Andrew Grant除了介紹新IP的硬體性能外,也同時講述公司圍繞這系列晶片打造的軟體生態系統,這與硬體配合,加速了開發者的開發速度,簡化了開發流程。而為了給汽車運算提供更多的算力支持,Imagination還打通了NNA多核平臺與GPU協同,給開發者提供更多的選擇。

Andrew Grant在發布會上表示,公司的IMG Series4  NNA已經開始向客戶提供授權,產品也將於2020年12月在市場上全面供應。 ABI Research智慧出行和汽車首席分析師James Hodgson說道:「在從L2和L3級ADAS向L4和L5級全自動駕駛演進的過程中,神經網絡的廣泛應用將是至關重要的因素。這些系統將要處理數以百計的複雜場景,從多個攝像頭和雷射雷達等大量傳感器中提取數據,從而實現自動代客泊車、十字路口管理和複雜城市環境安全導航等解決方案。高性能、低延遲和高能效的結合將是實現高度自動駕駛的關鍵所在。」 由此可見,一個全新的大門正在面向Imagination開啟。  

責任編輯:lq

打開APP閱讀更多精彩內容

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容圖片侵權或者其他問題,請聯繫本站作侵刪。 侵權投訴

相關焦點

  • Imagination展示了多項基於其先進圖形處理器和神經網絡加速器IP的...
    打開APP Imagination展示了多項基於其先進圖形處理器和神經網絡加速器IP的應用演示 Imagination Tech 發表於 2021-01-08 14:37:10
  • Level 5自動駕駛需要500+TOPS算力,IMG Series4多核集群AI加速器...
    在從L2/L3級ADAS向L4/L5級全自動駕駛演進的過程中,神經網絡加速器將是至關重要的組成部分。這些ADAS/自動駕駛系統需要處理各種各樣的複雜場景,比如從多個攝像頭和雷射雷達的傳感器融合中提取數據,以實現自動泊車、十字路口管理,以及複雜城市環境安全導航等高級功能。能夠結合高性能、低延遲和高能效的AI加速器將是實現高級別自動駕駛的關鍵所在。
  • Imagination劉國軍:用「GPU+AI加速器」破局AI算力需求|GTIC2020
    CPU、GPU、FPGA、ASIC、專用AI加速器的異構融合,為提高算力開闢了新的方向。面向算力需求,Imagination打造GPU IP和神經網絡加速器(NNA)IP的產品組合,分別著眼於AI計算的靈活性,以及高計算密度、低功耗需求。
  • Maxim Integrated新型神經網絡加速器MAX78000 SoC在貿澤開售
    MAX78000基於雙核MCU,結合了 超低功耗 深度神經網絡加速器,為高性能人工智慧 (AI) 應用提供所需的算力,是機器視覺、面部識別、目標檢測和分類、時序數據處理和音頻處理等應用的理想選擇。RISC-V處理器集成的特殊功能支持以低功耗將數據快速加載到神經網絡加速器。配置並加載了數據後,MAX78000 442-KB的卷積神經網絡 (CNN) 加速器運行AI推理的速度比MCU解決方案快100倍,功耗還不到其1%。  MAX78000處理器提供高效的電源管理,最大限度地延長電池供電的 物聯網  (IoT) 設備的續航時間。
  • 英特爾發布Movidius Myriad X VPU:提出神經計算引擎
    在英特爾子公司 Movidius 發布神經網絡處理「U 盤」之後不久,這家公司昨天又發布了一款被稱為 VPU 的晶片。通過全新神經計算引擎(Neural Compute Engine)的加速,VPU 可以在功耗很低的情況下實現每秒萬億次 DNN 計算,英特爾稱,這比他們此前的產品速度快上十倍。
  • 芯馳科技X9汽車晶片採用Imagination PowerVR GPU
    來源:TechWeb.com.cn【TechWeb】5月31日消息,近日,南京芯馳半導體科技有限公司SemiDrive(簡稱「芯馳科技」)正式對外發布9系列X9、V9、G9三大汽車晶片產品。資料顯示,芯馳科技成立於2018年6月,主要產品為自動駕駛及智能汽車核心處理器晶片。而Imagination是一家總部位於英國的公司,深耕汽車行業10餘年,採用Imagination的GPU開發的汽車晶片在全球範圍內的出貨量常年處於領先地位。
  • 光學卷積神經網絡加速器:通過光學實現更強大的人工智慧
    大規模並行的唯幅度傅立葉神經網絡 目前計算能力的供應遠遠無法滿足全球對機器學習硬體的需求。近日,美國喬治·華盛頓大學和加州大學洛杉磯分校的研究人員與深度科技創業公司Optelligence LLC共同開發出一種光學卷積神經網絡加速器,每秒能夠處理拍字節(1拍字節=250位元組)級的大量信息。這項創新利用了光的巨量並行性,預示著用於機器學習的光學信號處理新時代的到來,應用領域眾多,包括無人駕駛汽車、5G網絡、數據中心、生物醫學診斷、數據安全等。
  • IBM的8位浮點精度深度神經網絡模型解析
    本文引用地址:http://www.eepw.com.cn/article/201901/396743.htm  IBM的研究人員聲稱,他們已開發出一個更加高效的模型用於處理神經網絡,該模型只需使用8位浮點精度進行訓練,推理(inferencing)時更是僅需4位浮點精度。
  • 馬斯克:半年內量產車載神經網絡電腦 計算能力增加5-20倍
    騰訊科技訊 據國外媒體報導稱,特斯拉執行長伊隆-馬斯克(Elon Musk)日前在推特上宣布了特斯拉車載神經網絡電腦的最新進度。他表示,這一全新神經網絡電腦預計在6個月內投產,每秒計算能力較現有特斯拉車載電腦提高了5-20倍。   事實上,這款全新車載神經網絡電腦與特斯拉定製AI晶片在明年的發布,將成為該公司始於3年前長期項目的一個重要裡程碑。當時,特斯拉就預計未來車輛將需要更強大的計算能力,因而啟動了這一計劃。
  • biubiu加速器在哪兒下載 biubiu加速器ios最新下載方法一覽
    biubiu加速器在哪兒下載?biubiu加速器ios最新下載方法是什麼?biubiu加速器是近期小夥伴們關注比較多的一款加速產品,這款加速器的下載問題和ios上架的問題困惱著大家,筆者這裡給各位分享具體的下載詳情,在開始介紹下載方法前,我們先看看這款加速器。
  • 研究:用於光學神經網絡的高速光學卷積加速器
    光學神經網絡能夠利用可用的寬光學帶寬極大地提高計算速度。上周三(1月6日),斯威本科技大學的Xu等人在《Nature》上展示了一種通用的光學矢量卷積加速器(vector convolutional accelerator,VCA),其運行速度超過十個TOPS,實現了具有250000像素的圖像卷積——對於面部圖像識別來說足夠大。
  • 使用神經網絡為圖像生成標題
    我們都知道,神經網絡可以在執行某些任務時複製人腦的功能。神經網絡在計算機視覺和自然語言生成方面的應用已經非常引人注目。本文將介紹神經網絡的一個這樣的應用,並讓讀者了解如何使用CNNs和RNNs (LSTM)的混合網絡實際為圖像生成標題(描述)。
  • 微軟翻譯正式發布新一代神經機器翻譯技術
    日前,微軟翻譯官方博客宣布,將其中一些研究成果投入生產,發布了新的中文、德文與英語翻譯系統,提高了翻譯質量,並擴展了應用場景。微軟表示,以前的生產API相比較,基於行業標準測試集的人工評估結果顯示,整體質量提高了11%。這套翻譯系統在今年早些時候一組常見新聞報導材料上,實現了人類水平等價的翻譯效果。
  • 入門 | 請注意,我們要談談神經網絡的注意機制和使用方法
    我們可以粗略地把神經注意機制類比成一個可以專注於輸入內容的某一子集(或特徵)的神經網絡:它可以選擇特定的輸入。設 x∈R^d 為輸入,z∈R^k 為特徵向量,a∈{0,1}^k 是注意向量,g∈R^k 為 attention glimpse,fϕ(x) 為注意網絡(attention network)。
  • ISCA2016:體系結構頂級會議CNN走紅,神經網絡論文奪桂冠
    總體來看,神經網絡和深度學習已經成為近年來體系結構領域的研究熱點,在體系結構相關的頂級會議(如ISCA、MICRO、HPCA、ASPLOS)中,湧現了一批以深度學習為代表的應用驅動研究成果。下圖簡單匯總了近年來發表在這四個頂級會議上的神經網絡相關的論文(不含MICRO2016),可見神經網絡加速器和處理器研究方向的迅猛發展。
  • 圖神經網絡快速爆發,最新進展都在這裡了
    近年來,圖神經網絡(GNNs)發展迅速,最近的會議上發表了大量相關的研究論文。本文作者正在整理一個GNN的簡短介紹和最新研究報告的摘要。希望這對任何準備進入該領域或試圖趕上最新技術進展的人有所幫助。
  • 入門| 請注意,我們要談談神經網絡的注意機制和使用方法
    我們可以粗略地把神經注意機制類比成一個可以專注於輸入內容的某一子集(或特徵)的神經網絡:它可以選擇特定的輸入。設 x∈R^d 為輸入,z∈R^k 為特徵向量,a∈{0,1}^k 是注意向量,g∈R^k 為 attention glimpse,f(x) 為注意網絡(attention network)。一般而言,注意實現為如下形式:其中 ⊙ 是元素依次相乘。
  • 體驗美服最新雲頂之弈,盡在薄荷加速器!
    體驗美服最新雲頂之弈,盡在薄荷加速器! 由於是國際服,雲頂之弈手遊必須搭配加速器才能流暢運行。 所以我們還需要搭配一個加速器。 這裡給大家推薦薄荷加速器,22包月,包年套餐價每月更是低至8元,對比國內其他加速器,性價比毫無疑問最高。
  • 尋找最佳的神經網絡架構,韓松組兩篇論文解讀
    神經結構搜索 (NAS) 是一種自動化設計人工神經網絡 (ANN) 的技術,被用於設計與手工設計的網絡性能相同甚至更優的網絡。目前 NAS 已經在圖像識別和語言模型等任務的自動化神經網絡結構設計中取得了顯著成功。
  • 迅雷網遊加速器Air 3.2版本發布 加速效果提升超2倍
    近日,網遊加速領導品牌迅雷網遊加速器重磅發布Air3.2版本,新版本回歸網遊加速產品的本質,重點體現為用戶提供核心的加速服務的理念,與傳統網遊加速器相比,加速效果提升超過2倍。減輕負擔,加速要「輕」精彩好玩的大型3D網路遊戲通常對玩家的硬體設備和網絡速度有較高的要求,這部分網遊在發展中不斷提高自身的質量以保持其與休閒遊戲的製作差距,同時對硬體性能的需求也會不斷提升。