近日,英偉達 CEO 黃仁勳正式發布了新一代 GPU 架構 Ampere 安培,這是英偉達推出的第八代 GPU 架構,較前一代 2018 年發布的圖靈架構性能提升高達 20 倍。據悉,英偉達每代顯卡架構均以頂級科學家命名,這一次以法國物理學家安培命名。與非網 5 月 15 日訊
基於安培架構,A100 GPU 包含超過 540 億個電晶體,使其成為世界上最大的 7 納米處理器,並搭配 HBM2 顯存,面積 826 平方毫米,60GB/s NV LINK,現已全面投入生產並交付全球客戶。據黃仁勳表示,這顆晶片採用 7 納米臺積電工藝,540 億電晶體,比上一代架構,實現 5 大技術創新。「這是英偉達八代 GPU 史上最大的一次性能飛躍。」
根據英偉達的官方信息顯示,這次安培架構 GPU 具有 5 大技術創新:
1、全新安培 GPU 架構,540 億電晶體,世界上最大的 7 納米處理器。
2、第三代 Tensor Core AI 核心,支持 TF32 運算,無需任何代碼改變就可以讓 AI 性能提升 20 倍,還支持 FP64 雙精度運算,與 HPC 應用相比帶來了 2.5 倍的性能。
3、 Multi-instance GPU 多實例 GPU:簡稱 MIG,這是一項創新技術,可以將一個 GPU 劃分為七個獨立的 GPU,針對不同的目標提供不同的運算,最大化提高計算效率。
4、 NVLink 3.0:新一代 GPU 總線的性能翻倍,可以在伺服器應用中提供更有效的性能擴展。
5、結構稀疏性:這項新技術利用了 AI 運算中固有的稀疏性實現了性能翻倍。
同時,黃仁勳還帶來了基於安培架構 GPU A100 的 DGX-A100 AI 系統和面向邊緣 AI 計算的 EGX A100。有 8 路 Tesla A100 加速卡,性能高達 5PFLOPS,阿里雲、AWS 雲、谷歌雲、微軟 Azure、甲骨文及騰訊雲都將推出基於 DGX A100 的雲服務。
英偉達在過去 5 年裡成功打造了價值 30 億美元的業務,為人工智慧處理提供新解決方案的思路也吸引到競爭對手和初創公司的注意。英偉達曾是最大的個人電腦遊戲顯卡製造商,已將其技術應用於人工智慧。英偉達的產品展示了並行處理數據系統的價值,使得從互聯世界中提取海量信息的模式成為可能。Ampere 晶片已經是英偉達所提供伺服器的一部分。該公司稱這種伺服器有能力取代體積更大、價格更高、耗電量更大的基於英特爾晶片的伺服器。
據了解,英偉達和其競爭對手正在搶奪亞馬遜、谷歌以及微軟等提供雲計算服務的大客戶。黃仁勳拒絕討論具體的客戶。但他表示,所有主要的雲服務提供商都已經採用了內置 Ampere 晶片的伺服器。
(責任編輯:DF515)
來源: 與非網