英特爾研究院五大前沿領域研究進展揭秘!神經擬態架構性能已達CPU...

2020-12-13 智東西

智東西(公眾號:zhidxcom)作者 | 一一編輯 | 漠影

智東西12月8日消息,近日,英特爾線上舉辦研究院開放日活動,分享英特爾在集成光電、神經擬態計算、量子計算、保密計算、機器編程五大領域的研究進展。

英特爾研究院院長、英特爾高級院士、副總裁Rich Uhlig說:「我們認為這五個領域能夠真正大規模釋放數據價值,並且變革人們與數據互動的方式。」

作為英特爾掌握未來核心技術的儲備軍,英特爾研究院負責突破性創新技術的研究,以及全球範圍內的交付,旨在追求互連、計算、內存等領域技術的「1000倍提升」。

在圓桌環節,英特爾中國研究院院長宋繼強與英特爾在神經擬態計算、機器編程領域的技術專家進行連線,分享英特爾在這兩大前沿領域的技術研發細節。此外,在線上活動結束後,宋繼強與智東西等少數媒體進行交流,分享其對前沿科技領域的看法與預判。

一、集成光電:在五大技術模塊實現創新

英特爾首席工程師、英特爾研究院PHY研究實驗室主任James Jaussi分享了英特爾在集成光點領域的最新進展。

目前,光互連(optical)在長距離、遠程和地下傳輸中佔主導地位,而電氣互連(electrical)主要用於短距離、主板互連(board to board)和封裝互連(package to package)。

James指出,電氣互連面臨兩大限制,一是電氣互連逐漸逼近物理極限,高能效電路設計存在諸多限制;二是I/O功耗牆的限制,即I/O功耗會逐漸高於現有的插接電源,導致無法計算,這是由於計算的帶寬需求大約每三年翻一番,而電氣性能擴展跟不上帶寬需求的增長速度。

通過將光學技術與矽技術集成起來,英特爾開發出矽光子技術,可以讓光互連具備矽的高產量、低成本等特性。

▲電器互連面臨I/O功耗牆的限制

James稱,英特爾計劃將光互連I/O直接集成到伺服器和封裝中,徹底革新數據中心。藉助集成光電技術,英特爾能夠將I/O數量從幾百萬個擴展到幾十億個,使I/O數量實現1000倍的提升

光互連技術涉及六大技術要素,分別是:光產生、光放大、光檢測、光調製、CMOS 接口電路和封裝集成。此前,英特爾在混合雷射器的光產生領域實現創新。近期,英特爾在其他五大技術構建模塊上取得進展。

1、光調製

傳統矽調製器體積巨大,佔據過多空間,放置在IC封裝上的成本很高。英特爾開發了微型微射線調製器,相比傳統矽調製器體積縮小了1000倍。伺服器封裝上,可以放置幾百個微型微射線調製器。

2、光檢測

幾十年來,業界認為矽不具備光探測能力,英特爾開發出的全矽光電探測器(all-silicon photo detector),證明了事實並非如此。這項突破有助於降低成本。

3、光放大

光放大領域,英特爾解決方案集成了半導體光學放大器。James指出,要降低總功耗,集成半導體光學放大器必不可少。

4CMOS 接口電路和封裝集成

英特爾通過協同集成,將CMOS電路和矽光子技術整合起來。Rich稱:「目前,尚未有其他公司展示過這樣的解決方案,即將集成雷射器、半導體光學放大器、全矽光電探測器、微型環調製器集成在一個與CMOS緊密集成的技術平臺上。」

二、神經擬態計算:2021Q1發布下代「Lava」軟體開發框架開源版

2015年起,英特爾開始以現代神經科學為靈感,開發神經擬態計算的新型計算架構。相比傳統計算機架構,神經擬態架構完全模糊了內存和處理之間的界限。

神經擬態計算架構和大腦一樣,利用的是數據連接、數據編碼和電路活動中所有形式的稀疏(sparsity)。在信息到達時,數據處理同步進行,就像大腦中的神經元,計算是數百萬個簡單處理單元之間動態交互的發展結果。

宋繼強認為:「神經擬態計算將進入更大的一個爆發點,這個爆發點來自於我們可以有更大規模的硬體去支持做各種算法的創新和應用的創新。」

英特爾高級首席工程師、英特爾研究院神經擬態計算實驗室主任Mike Davies分享,在處理約束滿足問題時,相比傳統的CPU,英特爾的神經擬態計算架構,達到了前者2000倍的能效;在其他方面,也有例子表明,神經擬態計算架構的速度比CPUGPU的速度快100倍以上。

今年初,英特爾發布採用了768個神經擬態晶片Loihi的Pohoiki Springs系統,該系統包含1一個神經元。此外,英特爾神經擬態研究社區INRC的規模亦有所擴大。

據MIke分享,目前,INRC社區吸納了超過100個團體,其中企業成員已超過十幾家,有10家企業成員來自世界500強企業。同時,英特爾宣布,聯想、羅技、梅賽德斯–奔馳及機器視覺傳感器公司璞飛思加入INRC社區,將藉助神經擬態技術,進行改進生產流程等方面的探索。

Rich宣布,英特爾將在2021年第1季度發布下一代「Lava」軟體開發框架的開源版本,以觸及到更多的軟體開發人員。

三、量子計算:著力解決四大挑戰

英特爾高級首席工程師、英特爾研究院量子應用與架構總監Anne Matsuura稱,英特爾認為,相比其他量子位路徑,自旋量子位技術更能滿足可擴展性需求。「對英特爾來說,這是一項充分利用自身製造能力的戰略決策。」他說。

Anne透露,英特爾用於構建量子位的晶圓廠,同樣被用於開發英特爾「最新、最出色」的製程工藝。自旋量子位與電晶體技術非常相似,這為英特爾提供了最佳的發展路徑。基於這一發展路徑,英特爾面臨四大挑戰,Anne分享了英特爾解決這四大挑戰的方法。

首先,除了構建自旋量子位,英特爾量子計算研發團隊還需對量子位進行測試,而測試通常耗時幾天。為了節省測試時間,英特爾研究人員使用量子低溫探測儀(cryoprober),為自旋量子位引入高容量、高吞吐量功能。利用這款設備,研究人員只要幾個小時就可以獲得測試結果。

這與標準電晶體研發的信息反饋周期基本一致。藉助量子低溫探測儀,研究人員從研究設備提取測試數據和信息的速度提高了1000,大大加快了量子位的發展速度。

其次,量子計算還面對著「量子位控制」的挑戰。當前,量子位主要由許多機架的控制電路進行控制,這些電路通過複雜的布線連接至量子位,並且被放置在低溫冰箱中,以防止熱噪聲和電噪聲影響脆弱的量子位。對於商用級量子計算系統,需要將數百萬根導線引入量子位室(qubit chamber),並不具備可擴展性。

為解決這一問題,英特爾採用支持可擴展互連的低溫量子位控制晶片技術,開發出低溫控制晶片。該晶片基於22 納米FinFET 技術,可以在低溫冰箱內進行集成。

再次,量子計算還面臨著糾錯的挑戰。全面糾錯需要數十個量子位形成一個邏輯量子位,而構建商用級量子系統需要數百萬個量子位。對此,英特爾正在開發抗噪量子算法和錯誤抑制技術,幫助在目前的小型量子位系統上運行這些算法。

另外,由於量子計算是一種全新的計算類型,其運行程序的方式與經典計算完全不同。這也意味著,從應用、編譯器、量子位控制處理器、控制電路,到量子位晶片器件,量子計算的整個堆棧都需要採用全新組件。英特爾正在開發整個量子計算堆棧的所有組件

四、保密計算:致力於擴展同態加密技術

當前,加密解決方案主要用於保護在網絡中發送以及存儲的數據。但數據在使用過程中依然容易遭遇攻擊,而保密計算旨在保護使用中的數據,構建可信執行環境。

可信執行環境旨在最大限度地減少需要信任的軟硬體集,從而確保數據安全。英特爾研究院安全智能化項目組首席工程師Jason Martin將保密計算形容為「可以防止入侵者竊取你貴重物品的保險箱」。

目前,英特爾推出了軟體保護擴展(Software Guard Extensions)技術,將保密性、完整性和認證功能整合在一起,為使用中的數據降低安全風險。

如果有多個系統和數據集,且分屬於不同的所有者,英特爾則藉助聯邦學習技術降低安全風險。

以醫療成像方面的應用為例,英特爾研究院與賓夕法尼亞大學佩雷爾曼醫學院的生物醫學圖像計算和分析中心,開展了聯邦學習方面的合作。在聯合腫瘤分割項目中,雙方共同開發技術,來訓練可以識別腦瘤的人工智慧模型。

具體來說,研究人員將計算進行了拆分,這樣每家醫院就可以用本院的數據訓練本地版本的算法,這樣就可以在不共享數據的情況下,將每家醫院的模型組合成一個模型。但如果像這樣拆分計算,就會增加篡改計算的風險。因此,研究人員在各醫院使用保密計算來保護機器學習模型的保密性。此外,研究人員還使用了完整性和認證功能,確保數據和模型在醫院層面上不被操縱。

研究表明,採用聯邦學習方法訓練深度學習模型,其準確率可以達到採用傳統非私有方法訓練的相同模型的99%。

Jason稱,英特爾還在研發一種不需要暴露數據的完全同態加密技術。完全同態加密允許應用在不暴露數據的情況下,直接對加密數據執行計算操作。該技術已逐漸成為委託計算中用於保護數據隱私的主要方法。例如,這些加密技術允許直接對加密數據進行雲計算,而不需要信任雲基礎設施、雲服務或其他使用者。

目前,英特爾正在與全球頂尖的學術機構合作創立私有化AI協同研究院,以擴展上述保密計算技術。

五、機器編程:詳解兩大Debug系統

英特爾首席科學家、英特爾研究院機器編程研究主任及創始人Justin Gottschlich稱:「機器編程是教系統自己編程。」

此前,英特爾與麻省理工學院研究人員聯合發表的願景論文提出機器編程有三大支柱,分別是意圖(intention)、創造(invention)、適應(adaptation)。

這三大支柱對應到實際過程中,即是人類向機器表達意圖,機器自動創建完成該意圖所需的所有軟體。

在全球78億人中,只有2700萬人會編寫代碼,佔比不到 1%。英特爾希望藉助機器編程技術,使所有人獲得編程能力。要實現這一目標,機器編程系統需具備兩大要素:

首先,機器編程系統要能夠提高編碼員和非編碼員的工作效率;其次,機器編程系統生成的是高質量、快速、安全的代碼。

英特爾團隊認為,要實現這兩大要素,機器編程技術的關鍵一步是提升軟體調試過程(Debug)的魯棒性,並減少這一過程花費的時間。Debug即識別、分析和糾正軟體缺陷的過程。

Justin分享了英特爾機器編程團隊針對Debug過程開發的兩大系統:

其中一個是可以自動檢測性能漏洞的機器編程系統,該系統發明了用於檢測性能的測試。此前,這些測試由人類發明,而藉助這一系統,人類無需再編寫相關代碼。更重要的是,這一系統可以自動將發明的測試應用於不同的硬體架構,解決了硬體異構的問題。

另一個系統則不局限於查找性能漏洞,而是面向更廣泛應用範圍。具體來說,基於機器學習技術,該系統可在無監督的情況下識別漏洞。Justin稱,該系統能夠發現一些被開發人員忽略多年的高度複雜的細微漏洞。最近,該系統突破了從超過 10 億行代碼中學習的極限。英特爾計劃於近日在

神經信息處理系統大會(NeurIPS)上展示這一系統。

Justin特別指出,機器編程系統的誕生和應用,並不會取代專業的人類程式設計師。相反機器編程系統的應用將創造出更多的、新的就業機會。

「當今存在的大多數機器編程系統都需要大量的數據,而大量的數據通常是以代碼的形式存在,代碼是由專業程式設計師編寫的。因此,如果自動化有什麼後果的話,我們的預計是(市場)對高技能程式設計師的需求將會增加,專業程式設計師寫的代碼越多,機器編程系統就越先進。」他說。

結語:產學合作助推實現前沿創新

在圓桌論壇結尾,英特爾技術專家亦分享了英特爾研究院與學界合作的情況。以神經擬態計算為例,英特爾與美國康奈爾大學的研究人員共同進行相關研究,並研發出一套源自大腦嗅覺迴路結構和動力學的神經算法,對英特爾Loihi神經擬態晶片進行訓練後,Loihi能夠學習和識別10種危險化學品的氣味。

不同於業已滲透到千行百業中的經典計算範式,前沿技術領域仍待培育。因此,在前沿技術的發展過程中,協同產業界、學術界力量,著力構建技術生態十分重要。可以說,這一點上,英特爾已經有所成就。在未來,英特爾研究院還將推出哪些改變產業生態的創新技術?時間會告訴我們答案。

相關焦點

  • Intel:首款神經擬態研究晶片功耗可比CPU低1000多倍
    英特爾高級首席工程師、英特爾研究院神經擬態計算實驗室主任 Mike Davies 在 12 月4 日的 2020 英特爾研究院開放日上表示。2017 年,英特爾首款自主學習的神經擬態研究晶片發布,名為「Loihi」。名字取自於夏威夷海底的一座不斷噴發的活火山,每一次噴發都會擴大夏威夷島的範圍,希望其能夠通過不斷的自我學習,可以提供更加強大的人工智慧的能力。
  • 英特爾率先完成逆襲?神經擬態晶片上線,已超過傳統CPU的1000倍
    前言:今年年初,蘋果正式告別了英特爾,其在今年後半年首次推出了ARM架構的自研晶片M1。這意味著,英特爾未來技術不能在擠牙膏了。就在最近,英特爾正式對外分享了神經擬態研究的最新進展,這是否代表著英特爾將完成技術的逆襲呢?
  • Intel首款神經擬態晶片Loihi:功耗可比CPU低1000多倍
    英特爾高級首席工程師、英特爾研究院神經擬態計算實驗室主任Mike Davies在12月4日的2020英特爾研究院開放日上表示。2017年,英特爾首款自主學習的神經擬態研究晶片發布,名為「Loihi」。名字取自於夏威夷海底的一座不斷噴發的活火山,每一次噴發都會擴大夏威夷島的範圍,希望其能夠通過不斷的自我學習,可以提供更加強大的人工智慧的能力。
  • ​神經擬態計算的「一小步」, AI發展的「一大步」
    英特爾近期在超高能效比的神經擬態計算領域取得了矚目的進展,例如Loihi晶片已經具備了嗅覺,可以識別10種有害氣體;由有768顆Loihi神經形態晶片組成的Pohoiki Springs神經擬態計算系統擁有1億個神經元,相當於一個小型哺乳動物。可以說,正是這些在神經擬態計算領域的「一小步」,成就了AI發展的「一大步」。
  • 英特爾Pohoiki Springs神經容量=小型哺乳動物大腦的大小
    2020年3月19日——今天,英特爾宣布其最強大的最新神經擬態研究系統Pohoiki Springs已準備就緒,將提供1億個神經元的計算能力。
  • 面向智能時代 英特爾構建技術基石、驅動未來計算
    - 2019年10月,英特爾發布全新 Tremont 微架構,作為英特爾最新和最先進的低功耗 x86 CPU 架構,Tremont 提供的性能較前代產品顯著提升。- 2019年11月:英特爾披露全新基於Xe架構的GPU,為HPC和AI工作負載提供優化。
  • 「重新定義10nm」:性能提升約20%,英特爾架構日更新四大技術
    英特爾是世界上為數不多的既可以設計、也可以製造晶片的公司,也是目前世界上最大的半導體公司。50 多年來,英特爾一直是半導體晶片領域的領頭羊。然而,隨著晶片產業進入到了 7nm 時代,英特爾的進展卻並不順利。
  • Intel神經擬態系統支持1億個神經元:堪比小型哺乳動物
    Intel在神經擬態前沿研究上不斷取得重大突破。日前,Intel Loihi神經擬態研究晶片擁有了「嗅覺」,只需單一樣本就可以學會識別每一種氣味,識別準確率極其出色,效率是傳統深度學習方案的3000倍以上。
  • 英特爾全新電晶體性能提升可媲美節點升級 計算架構新黃金十年開啟?
    英特爾在架構日上展示的製程&封裝、XPU架構、內存&存儲、互聯、安全、軟體的進展,是否表明了英特爾開啟了計算架構創新的黃金十年?Patterson發表了一篇長報告《A New Golden Age for Computer Architecture》,詳細描述了引發計算機架構新時代到來的種種變化,並且展望未來的十年將是計算機體系架構領域的「新的黃金十年」。英特爾在2020年架構日上展示了從CPU到GPU的多個架構的最新進展。
  • 疫情之下,英特爾全球供應鏈穩定!Xe獨顯即將上市,明年量產7nm
    4月9日下午,英特爾在線上召開了主題為「智存高遠·IN擎未來」的2020英特爾中國媒體紛享會,介紹了在新冠疫情之下,英特爾對於未來科技產業發展機遇的看法,並首次提出了「智能X效應」概念,分享了英特爾在「六大技術支柱」上的最新成果,以及在未來技術上最新研究進展。
  • 英特爾最新一代10nm重新定義電晶體,Tiger Lake架構性能提升20%
    在英特爾2020年架構日上,英特爾首席架構師 Raja Koduri 攜手多位英特爾院士和架構師詳細介紹了英特爾在六大技術支柱方面的最新進展。全新的 10nm SuperFin 電晶體技術,可實現全擴展的Xe圖形架構,還有下一代 Willow Cove 和 Tiger Lake SoC 架構等最新技術首次亮相。
  • 解讀神經擬態計算:讓機器像大腦一樣"思考"
    當前,人類大腦單個神經細胞——即神經元——的工作模式大體上已被科學家們掌握,大腦中每個可見的腦葉和神經節的作用也已被探明,但是腦葉和神經節中的神經元如何組織依舊是個謎。科學家們認為神經元的組織方式決定了大腦的思考方式,同時也很可能是意識的存在方式。因此,想要實現神經擬態計算,首先就需要構建出一顆模擬大腦神經元工作的計算晶片。  這就是神經擬態計算的核心原則。
  • 英特爾發力智能計算、存儲、連接,透露7nm將於2021年實現產品首發
    六大支柱並駕齊驅,新興領域產品漸次落地英特爾是技術驅動的公司。創新的背後,是世界級的研發投入,在半導體行業遙遙領先。英特爾六大技術支柱並駕齊驅,滿足前所未有的計算和性能需求;產品線覆蓋雲、網、端,並推動量子計算、神經擬態計算等未來創新。我們還戰略性地收購了一系列的創新公司,加強了英特爾對未來的布局。
  • 英特爾Xe架構迎來重要進展:首款伺服器獨顯發布
    英特爾公司今日宣布多項重要的技術進展,這也是英特爾多年來一直致力於通過統一的軟體體驗打造跨架構解決方案的又一裡程碑。其中,英特爾 oneAPI Gold工具包將於今年12月正式交付;英特爾軟體棧推出新功能,作為公司軟硬體聯合設計方法的一部分。同時,英特爾正式發布其首款數據中心獨立圖形顯卡。
  • 英特爾首提「集成光電」願景:重構數據中心網絡和架構,打破I/O功耗牆
    這些進步代表著光互連領域的關鍵進展,它們解決了電氣輸入/輸出(I/O)性能擴展上與日俱增的挑戰——目前需要大量數據計算的工作負載已經讓數據中心的網絡流量不堪重負。英特爾展示了包括微型化在內的關鍵技術構建模塊的多項進展,為光學和矽技術的更緊密集成奠定了堅實基礎。
  • 樣本僅為傳統機器學習的1/3000,英特爾Loihi展示...
    芯東西(ID:aichip001)編 | 心緣芯東西3月17日消息,英特爾和美國康奈爾大學今天聯合發表一篇論文,展示了英特爾神經擬態研究晶片Loihi能在有明顯噪聲和遮蓋的情況下,學習和識別10種危險化學品。
  • 矽基巨匠英特爾:用創新雕刻幻夢 把數據匯成星河
    ·前沿技術領域遍地開花,擊穿龐大算力需求瓶頸然而英特爾並不滿足於此,因此,神經擬態計算、量子計算、矽光子通信、近內存計算等前沿技術被提上日程,並在近年來取得進展和突破。神經擬態計算,簡單來說就是用晶片模擬人類大腦的計算方式,它擁有兩大特性:算力高、功耗低。目前,英特爾已經能夠實現在5個機箱大小的空間內集成768塊Loihi神經擬態計算晶片,並在500W功耗下實現大規模數據計算需求。同時英特爾還實現了第一個可以「聞得見氣味」的神經擬態計算晶片案例。
  • 英特爾亮出AI殺手鐧:我們的神經網絡處理器技術很嚇人,VPU也一樣
    也正因如此,Nervana神經網絡處理器(Nervana Neural Network Processor,NNP)才獲得巨大提升。事實上,NNP也是英特爾醞釀已久的「殺手鐧」。就在AI開發者大會期間,科技行者與他進行了一次「接地氣」對話,原來打著「如意算盤」的英特爾還可以這樣玩。Nervana NNP:新AI芯性能飆升3-4倍,但威力還沒完全釋放在Rao長達1小時的主題演講中,最重磅的發布非英特爾Nervana神經網絡處理器莫屬了,它對英特爾的意義非同小可。