比摩爾定律快得多:為什麼要將AI算力擴展至ExaFLOPs百億億次量級?

2021-01-10 電子工程專輯

被譽為英國半導體之父,同時也是Arm聯合創始人的Hermann Hauser先前曾經這樣評價過Graphcore:「這在計算機歷史上只發生過三次,第一次是70年代的CPU,第二次是90年代的GPU,而Graphcore就是第三次革命。他們的晶片是這個世界偉大新架構的一種。」

當通用計算逐漸在性能、能效比提升逐年放緩的情況下,摩爾定律放緩、登納德縮放定律失效,被人們每每提及的「架構革新」成為一種必然。Graphcore的IPU可算是當代「架構革命」的先驅之一。Graphcore的架構革命究竟能帶來什麼?


Graphcore CEO Nigel Toon

為什麼需要革命?

神經網絡(NN)的一大特點,就是在邏輯層面對人腦神經元行為的模擬。更加高度抽象地說,以「推理」過程為例,我們「感知」世界的方式,總是通過非精確數據進行推理,從經驗中學習,以及基於世界模型的嘗試。就好比人類大腦辨認一隻貓的過程,是基於經驗的、常識模型的,而且是低精度的,我們不需要精確獲知這隻動物身上究竟有多少根毛髮、眼睛尺寸的具體數值等,便可推理出這是一隻貓。

今年的2019全球CEO峰會上,Graphcore CEO Nigel Toon在題為Exascale Compute with IPU的主題演講中提到,如今智能機器(Intelligence Machine)的常規方案,即是獲取訓練(training)數據/傳感器數據,然後藉由「概率知識模型」在本地進行推理(inference),並最終得到結果。

「什麼樣的數據、什麼樣的方法去捕捉他們要訓練的這些數據,數據間的應用關係;就像孩子一樣,大腦不斷地吸收他們的知識,才能產生這樣的模型,這些是需要長時間建立的。」Toon表示。除此之外,這類型的工作極少出現分支和其他複雜行為任務(分支這類型的任務是CPU的專長),可以分解成單獨、半獨立的線程;而且計算精度要求並沒有那麼高。

 

這樣一來GPU這種具備處理重度並行任務能力的處理器也就非常適用,不過GPU的效率仍然不夠高。Graphcore在前兩年的一次主題演講中特別提到了GPU的Dark Silicon[1],畢竟GPU有一部分是專為圖形渲染做高性能計算的,這樣一來就存在大量資源浪費;而且主流GPU核心區域的片上存儲資源仍然是不夠的,數據吞吐能力也就沒有那麼強。

前面提到的「知識模型」包含的特點有:自然呈現為計算圖(graphs,代表的是知識模型和應用,所有機器學習模型都用graph的形式來表達)、支持高度並行計算、需要海量數據帶寬、小型張量(small tensors)的低精度算法。這其實是AI晶片誕生的重要契機。

另一方面,「機器智能」的要求還在發生進化。我們現在更多的應用,並不是單純能識別一隻貓這麼簡單,更多的比如語言理解,以及更多的高級感知能力——如汽車輔助駕駛系統或者自動駕駛中,對司機情緒、疲勞程度的判斷等。與此同時,模型尺寸正在變得越來越大。我們前兩年還在說:好的卷積神經網絡,通常是帶有「上百萬參數」和許多隱藏層的怪物。不過在這些年不同應用的發展中,「上百萬」又算得上什麼?

Toon列舉在2016年1月的殘差網絡ResNet50參數總量25M,到2018年10月的BERT-Large自然語言模型發展到了330M,如今OpenAI會講故事的文本生成模型GPT2——這是一個大型語言模型,具有15億個參數;未來的新模型是朝著萬億(trillion)量級去的。

 

上面這張圖,來自去年年中OpenAI發布的一份名為《AI與計算》的分析報告[2]。這份報告提到,自2012年以來,AI訓練(training)任務應用的算力需求每3.5個月就會翻倍,這個數字可是超過了摩爾定律的;從2012年至今,AI算力增長超過30萬倍。這張圖縱軸的單位,每1個petaflop/s-day(pfs-day),就包含了一天每秒10^15次神經網絡運行次數,或者總數大約10^20次操作(不過這個統計針對一次「操作」的定義,沒有區分加法、乘法,而且不區分數據精度)。

需要注意的是,這張圖的縱軸刻度並不呈線性,而是指數級增加。

 

當我們真正去對比當前晶片的電晶體數量,以及性能變化時,其實很容易發現,摩爾定律大趨勢是持續的,但登納德縮放比例定律(電晶體密度增加同時,每個電晶體功耗會下降)已經達到極限——我們在先前的文章中也已經不止一次地提到過這個問題。早些年,Steve Scott還在英偉達特斯拉業務部門擔任CTO(現在是Cray的CTO)的時候就說過這個觀點:電晶體已經無法在體積縮小的情況下持續降低電壓,這樣一來,雖然集成的電晶體越來越多,但也意味著功耗越來越大:性能因此受到功耗限制,每一次製程迭代,都會加重該問題。

所以解決方案是?

去年《連線(WIRED)》雜誌在採訪AI之父Geoff Hinton說:「我認為我們需要轉向不同類型的計算機。幸運的是我這裡有一個...」Hinton從錢包裡掏出一枚又大又亮的矽晶片:IPU。

這段是Toon在全球CEO峰會上講的,看起來很像是個段子。不過從連線雜誌的原報導來看[3],這件事竟然是真的,當時Hinton拿出來的是Graphcore的原型產品。Geoff Hinton現如今是谷歌AI頂級研究人員,此人早在上世紀70年代就開始構建人類大腦從視覺層面理解世界的數學模型。所以這件事,又讓Graphcore獲得了一重加持。

實際上,現如今的AI晶片已經遍地開花了,不管是訓練(training)還是推理(inferencing),包括Arm前不久都已經發布了針對邊緣AI推理的專用IP。這其實已經足夠表明,這種「架構革命」風捲殘雲式的來襲。

簡單地說:CPU通過手機數據塊來處理問題,然後針對這些信息跑算法或執行邏輯操作,其通用性很好,適用於各種計算,但可並行的核心數量經常只有個位數;GPU核心數或執行單元數量大,可同時執行更多任務,但如前所述,其效率還是不夠的;而AI晶片,則能夠從不同位置同時拉來大量數據,進行快速和更高並行數的處理:Graphcore的IPU(Intelligence Processing Units)是其中一種。

 

Graphcore可以認為是這個領域最早的一批開創者。IPU的「架構變革」部分體現在,整合晶片邏輯和存儲部分,在片上分布SRAM,讓IPU達到100倍吞吐;此外,16nm "Colossus" IPU包含了超過1200個低精度浮點運算核心,和所有機器學習所需的控制操作與超越函數,125 teraFLOPS算力;每個核心能夠跑至多6個線程。

另外搭配Graphcore針對機器智能設計的軟體工具鏈Poplar。Toon先前在接受採訪時曾提到:「Poplar建立在計算圖形抽象(computational graph abstraction)的基礎上。其graph compiler的IR(intermediate representation中間層)是個大型的定向圖。」Graph圖像共享作為內部的representation,整個知識模型的representation最後都會分解為高度並行的工作負載,然後在IPU處理器之間進行調度和執行。一句話概括就是,Poplar通過不同層級的優化,在IPU核心之間部署任務。[4]

Poplar支持TensorFlow、PyTorch、OONX、Keras等框架。「從這些高層級的框架獲取輸出,餵進Poplar軟體層,產生高層級的graph,並將這些graph映射到跑在IPU處理器上的一張完整計算graph上。」這其實也是當前AI晶片開發的常規思路。

總結一下,這些嘗試解決的問題實質就是本文第一部分提出的,當代「知識模型」的那些要求,包括高吞吐、高度並行、低精度等,並在性能要求上滿足模型越來越貪婪的需求。

IPU的幾個特點,第一是被稱作graphs型的計算(computation on graphs,包括了高度並行、稀疏化(sparse)、高維度模型、分布式片上存儲);第二,低精度,寬動態範圍算法(混合精度,16.32,和更低);第三,靜態圖形結構(編譯器可分解任務、分配存儲,調度messages,塊同步並行、無序化、adress-less通訊);最後是Entropy Generative(比如產生統一分布整數、Generation of vectors of approximately Gaussian distributed floats等)。

ExaFLOPS級別的擴展

Nigel Toon提到,IPU產品已經向戴爾出貨,戴爾易安信IPU伺服器即是一款比較具體的產品。如我們先前所了解的那樣,這款數據中心設備,每臺插8張C2 PCIe加速卡(每個C2卡包含兩個IPU),能夠實現1.6 petaFLOPS的算力。戴爾其實也是Graphcore企業市場策略的重要組成部分。

 

 

從IPU先前的介紹來看,它具備card-to-card links的彈性擴展機制。在前不久的NeurIPS展會上佔了一個名為Rackscale IPU-POD的參考設計。Nigel Toon這次講IPU-POD稱作「機器智能超級計算機」,「這部分去年10月,我們開始逐步付諸實施。」這可以認為是將IPU彈性應用到極致的某種示例。

一個單獨的42U機架IPU-Pod能夠提供超過16 PetaFLOPS混合精度算力;一套32個IPU-POD(至多4096個IPU),可以將算力彈性擴展至超過0.5 ExaFLOPS的程度,這對同硬體的訓練和推理,都是相當驚人的吞吐量。

顯然針對Toon前面提到神經網絡模型在體積和算力需求方面的擴張,是越來越必要的一種應用方案。


可彈性擴展至0.5 ExaFLOPs的IPU-POD

作為英國的一家獨角獸企業,Graphcore是被Nigel Toon寄予了厚望的。他一直期望在英國建立一個具備Arm同等影響力的科技企業。當前Graphcore的融資總額已經達到3.25億美元,這在我們先前的全球CEO峰會展望篇中已有所提及。不過在應對AI晶片越來越多市場參與者,包括大量初創型企業,以及Intel、英偉達這些老牌企業的入場,Graphcore和Nigel Toon的競爭壓力顯然也是不小的。

 

參考來源:

[1]https://cdn2.hubspot.net/hubfs/729091/NIPS2017/NIPS%2017%20-%20IPU.pdf?t=1526305355186
[2]https://openai.com/blog/ai-and-compute/
[3]https://www.wired.com/story/googles-ai-guru-computers-think-more-like-brains/
[4]https://www.eet-china.com/news/201909211859.html

責編:Yvonne Geng

相關焦點

  • AI計算量每年增長10倍,摩爾定律也頂不住|OpenAI最新報告
    英偉達的黃仁勳一直在強調摩爾定律已死,就是沒死也頂不住如此爆炸式的算力需求啊。至於為何發布AI計算量報告?OpenAI說,是為了用計算量這種可以簡單量化的指標來衡量AI的發展進程,另外兩個因素算法創新和數據難以估計。
  • 智慧型手機迭代越來越快,摩爾定律還適用嗎?
    這可能會歸結於製造商專注於其他功能,而不是盲目地遵守摩爾定律。智慧型手機不僅要比去年快得多,而且結構也要更漂亮,電池效率、解析度也要更高。CPU性能並不是唯一要優先考慮的因素,這也可以解釋為什麼我們在這些方面沒有看到「翻倍」。當然,還有更多的原因。2.關於CPU工作原理看看上面的表格,你可以看到GHz和性能之間的關係並不密切。
  • 摩爾定律或在2025年迎來終點 中國晶片一招可以突圍
    「產業發展的驅動是算力,根據預估,AI算力約每3個月翻倍,但算力需求增長速率是10倍/年增長,就算摩爾定律不放緩,都難以滿足日益增速的算力需求。」IC CHINA2020上,上海燧原科技有限公司創始人兼CEO趙立東如是說。
  • 摩爾定律或在2025年迎來終點 中國晶片如何突圍?
    ,根據OpenAI預估,AI算力約每3.4個月翻倍,但算力需求增長速率是10倍/年增長,就算摩爾定律不放緩,都難以滿足日益增速的算力需求。,圖源:OpenAI摩爾定律認為,一塊晶片中可容納的電晶體數量每隔18至24個月就會增加一倍,性能也將提升一倍。
  • 摩爾定律一
    其內容為:當價格不變時,集成電路上可容納的元器件的數目,約每隔18-24個月便會增加一倍,性能也將提升一倍。換言之,每一美元所能買到的電腦性能,將每隔18-24個月翻一倍以上。這一定律揭示了信息技術進步的速度。發展歷程被稱為計算機第一定律的摩爾( Moore)定律是指IC上可容納的電晶體數目,約每隔18個月便會增加一倍,性能也將提升一倍。
  • 淺析後摩爾時代的AI革命
    各大廠商對機器學習的熱情越來越高,對算法、算力和數據提出新的要求,尤其是對算力需求的激增,進一步催生相關晶片和專用設備的蓬勃創新,而在後摩爾時代,這種創新或將成為突破算力極限的關鍵。 數據「餵」大的機器智能 什麼是機器學習?簡單來說,機器學習使用算法在數據中發現模式,然後使用一個能識別這些模式的模型對新的數據進行預測。
  • 「芯觀點」後摩爾時代的AI革命:算力需求激增,催生晶片創新
    各大廠商對機器學習的熱情越來越高,對算法、算力和數據提出新的要求,尤其是對算力需求的激增,進一步催生相關晶片和專用設備的蓬勃創新,而在後摩爾時代,這種創新或將成為突破算力極限的關鍵。數據「餵」大的機器智能什麼是機器學習?
  • 黃氏定律正取代摩爾定律
    在現代計算的第一個時代,有一種趨勢始終佔據主導地位,它也被稱為摩爾定律。實際上,摩爾定律是英特爾聯合創始人摩爾的預測,而不是任何形式的物理定律。摩爾定律認為,晶片上的電晶體數量大約每兩年就會翻一番。這也意味著,這些晶片以及它們所驅動的計算機的性能在大致相同時間內會有實質性的提高。
  • 一篇論文引發的光子AI晶片革命!這次真想要了摩爾定律的命
    光子AI晶片的優勢: 速度快、功耗低、擅長並行計算 作為統治計算的一個基準法則,摩爾定律指出,微處理器晶片上的電晶體數每18-24個月翻一番,曾長期作為推動電子設備小型化和網際網路普及的關鍵動力。
  • 2020年7納米製程:摩爾定律的終點站
    8月28日消息,美國國防部先進研究項目局微系統技術辦公室主管羅伯特-克羅韋爾(Robert Colwell)認為,摩爾定律的終結不只對物理界影響巨大,對經濟的影響也很大。克羅韋爾稱:「我認為是時候為摩爾定律的終結作計劃了,不只要思考它何時終結,思考它為什麼終結也很有意義。」
  • 網際網路原子彈,算力吞噬者:1750 億參數的 AI 模型 GPT-3 引爆矽谷
    曾有人開玩笑說,「要想提高 AI 的準確率,讓它把所有的測試數據都記下來不就行了?」 沒想到如今真有人奔著這個目標去做了……在 GPT-3 之前,最大的 AI 語言模型是微軟在今年 2 月推出的 Turing NLG,當時擁有 170 億參數的 Turing NLG 已經標榜是第二名 Megatron-LM 的兩倍。
  • 摩爾定律的突圍
    摩爾定律並非自然規律,而應該被視為對未來集成電路發展的觀測或者預測,但是這樣的「預言」卻伴隨著集成電路半個多世紀的快速發展並不斷的「自我實現」。從實際使用角度看,摩爾定律可以理解為微處理器的性能每隔18個月提高一倍,或價格下降一半。
  • 「摩爾定律」走向終結,光子晶片將成為電子行業的未來?
    ——相信大家對英特爾聯合創始人戈登•摩爾提出的「摩爾定律」並不陌生。在過去的四十年裡,IT 行業一直受這一定律的驅動。不過近年來隨著傳統電子晶片發展速度的放緩,「摩爾定律」正逐漸走向歷史。未來,基於光子技術的新型晶片,或將打破電路元件的限制,建造出運算速度更快的計算機。
  • 摩爾定律的黃昏,計算機行業的十大未來方向!
    3、從現有電晶體尋找出路:多核晶片、特製晶片、新品種晶片。4、計算框架的變革:量子計算框架、光通信、量子阱電晶體、神經形態計算、近似計算。摩爾定律的黃昏將帶來機遇、混亂和大量的摧毀性創意。一個原本依賴於大量設備穩步升級的行業將被撕碎。那麼計算的未來,究竟會怎樣發展?
  • 摩爾定律將令經典計算機至極限?量子科學家看法不一
    英特爾公司的奠基人之一摩爾在20世紀70年代發現,集成在一塊晶片上的電晶體數量大約每兩年增加一倍。這一發現被其後數十年晶片發展的實際情況所驗證。這就是人們所說的摩爾定律。  按此計算,到2010年,一個晶片上的電晶體數目將超過10億個。隨著電晶體集成度的提高,晶片的耗能和散熱成了全球關注的大問題。
  • 每秒1000億次的運算速率,光子計算機將改變我們的生活
    我們想幹的事情太多,面對蝸牛一樣速度的電腦急躁如火,電腦在運行時,電子在晶片裡跑來跑去完成各種指令,從理論上來說,電子運動的速度可以接近光速,但是,實際上現在的電腦和手機等數碼產品,電子在晶片上的速度還不到光速的百分之一,摩爾定律認為:集成電路上可容納的元器件的數目,約每隔18-24個月便會增加一倍,性能也將提升一倍。
  • 給摩爾定律續命 EUV光刻暫難當大任
    今年,三星公司正式發布了7納米EUV晶片Exynos 9825,該公司稱此晶片將電晶體性能提高了20%至30%,將功耗降低了30%至50%。  之所以備受關注,一個重要的原因是,有傳聞稱,EUV光刻有望成為摩爾定律的「救星」。  半個多世紀以來,半導體行業按照摩爾定律不斷發展,由此驅動了一系列的科技創新。
  • 摩爾定律、梅特卡夫定律、顛覆定律(冪指數定律)分別是啥?
    摩爾定律每18個月,計算機等IT產品(或者說相同性能的計算機等IT產品)的性能將翻一番,每18個月價格就會降一半。主幹網帶寬的增長速度至少是運算性能增長速度的三倍。因為運算性能增長速度主要是由摩爾定律決定的,所以根據每兩年運算性能提高一倍計算,主幹網的網絡帶寬的增長速度大概是每八個月增長一倍。梅特卡夫定律網絡的價值等於網絡節點數的平方,網絡的價值與聯網的用戶數的平方成正比。
  • 黃氏定律取代摩爾定律,英偉達急於收購ARM的原因
    在現代計算的第一個時代,一個趨勢佔據了上風:摩爾定律。摩爾定律:晶片上的電晶體數量大約每兩年翻一番摩爾定律是由英特爾(Intel)的聯合創始人戈登·摩爾(Gordon Moore)於上世紀60年代提出的。他認為晶片上的電晶體數量大約每兩年翻一番。
  • UCLA教授Jason Woo:摩爾定律不是物理定律,是經濟學的預測
    在「摩爾定律的終結」研討會上,史丹福大學博士,加州大學洛杉磯分校教授兼副主任、CMOS研究實驗室負責人Jason C. S. Woo指出,摩爾定律不是物理定律,是具有經濟學基礎的一個預測。摩爾定律為什麼可以這樣進行演變?