過去幾年來,數據中心市場崛起,高性能運算的前景帶動了半導體業的發展,也讓Nvidia從一家做遊戲顯卡的小蝦米一躍成為當今晶片業的大鯨魚,且看「黃氏定律」(Huang’s Law)到底是否真能繼續摩爾定律的野心。
Nvidia創辦人黃仁勳出生於臺北,9歲就隨家人遷往美國,而後在史丹福大學取得電機工程碩士學位。值得一提的是,他的童年並沒有大家想像中的優渥,雖然在美國定居,但家裡經濟並不好,從小是在肯塔基州的一所鄉村學校長大,在那裡黃仁勳學會了抽菸、爬牆、打架,許多同學身上甚至都還帶刀,在這樣的學習環境下增長,也令他有著較粗獷的性格。
不過儘管如此,黃仁勳在擅長體能運動之餘,學習成績仍相當優異。他從來不認為,他小時候的環境是一種阻礙,反而讓他能更加堅強,更有活力。他甚至在Nvidia股價漲破100美元時,跑去在手臂上刺青,並引以為傲。他可能是世界上少數會在身上刺青的知名CEO,也令其有著不同的魄力,最終創造出了如今半導體業的巨頭。
黃仁勳在2014年NVIDIA Gaming Festival上大秀他的刺青。(Source:NVIDIA Facebook)
比起如今的AMD及英特爾,Nvidia其實非常年輕,黃仁勳最早在矽谷落腳就是擔任AMD的晶片設計師,後就職於LSI Logic,這是首個推出ASIC晶片,並實現系統單晶片解決方案的半導體廠。不過黃仁勳早立志要自己創業,於30歲時,也就是1993年創辦了Nvidia,投入當時競爭非常激烈的繪圖晶片產業中。
5年後,Nvidia發布的第四代顯卡性能開始在市場上佔據上風,但可說是歷經10年血戰才真正奠定了在這個產業中的地位,擊敗諸多知名的競爭對手,要不是ATI被AMD收購,可能也無法繼續與Nvidia競爭。2006年,獨立顯卡開始迎來了兩強爭霸的時代。
GPGPU
但從一開始,這本就不是一個很有利可圖的行業,黃仁勳在創業前後受到相關專家朋友的勸阻,事實上,創業過程也非常艱難,Nvidia也曾因太過執著於對性能的追求,忽視商業環境的需求而差點夭折,不過他很快就學到教訓,並適應了由英特爾制定的產業規則,x86已是半導體的王者,但黃仁勳很早就發現了GPU的利基所在。
最初其實也沒有GPU這個稱呼,是由Nvidia而起。1999年,黃仁勳推出全球最早被稱之為GPU的顯卡──GeForce 256,並不斷強化可程序設計的能力。圖形處理器通用計算就是黃仁勳想要抓住的趨勢,早在2002年,黃仁勳就做著將GPU應用在AI運算的夢,Nvidia今日的成功是有著極其漫長的伏筆,而非偶然。
2003年左右,各界專家開始注意到圖形處理器通用計算(GPGPU)的潛力,尤其是大批量的小數點下浮點運算。儘管CPU核心的計算能力仍在GPU之上,但簡易多核設計,令GPU在處理浮點運算具有優勢,如今更逐漸拉開距離,成為重要的計算單元。而通過將才剛起步的營收大把投入研發後,2007年,Nvidia發布了初版的統一計算架構(Compute Unified Device Architecture,CUDA),奠定了並行計算的裡程碑,也是Nvidia在高性能運算(HPC;High Performance Computing)上的基礎。
當然Nvidia並不是沒有對手,AMD同樣迅速地意會了趨勢的到來。不過曾有「核武狂魔」之稱的黃仁勳在站穩腳跟後,當然仍一路在性能路上奔馳,最早可以拿來煎蛋的顯卡可不是AMD的。
黃仁勳在加州廚房中端出了新一代AI基礎通用架構系統DGX A100,對應8顆Tesla A100 GPU。(Source:NVIDIA)
野心不止於數據中心
而自有CUDA之後,Nvidia馬上就發布了以Tesla為名的數據中心解決方案。雖然眾所周知,數據中心將會越來越普及,市場越來越大,儘管握有GPU的技術優勢,但Nvidia在此領域還稱不上什麼先驅,不過善於纏鬥的黃仁勳已瞄準了在大趨勢進展中,市場的空白。
未來隨著半導體技術進展,數據中心不再需要那麼大的機房,將越來越商業化,資料科學也會越來越普及,所需要的不同等級產品將越來越多,但市面上還沒有這些解決方案。從超級計算機(Supercomputing)、超大規模數據中心(Hyperscale data center)、企業數據中心到個人伺服器之間,都還有極大的空白。
未來的數據中心不僅是建在陸地上,還有水下。(Source:微軟)
「且若沒有空白,就創造空白」,這就是黃仁勳的的策略思想,他善於填補未來的空白。除不遺餘力對資料科學及人工智慧的推動外,還有如多媒體的應用需求,光線關注(Ray Tracing)技術也是如此。雖然也頗受質疑,在市場開口之前就提出解決方案,成為Nvidia的風格。但為實踐這樣的策略,Nvidia的產品就必須具備更大的廣度。
處理器上,GPU能有效減輕CPU在資料運算的負擔,但若在大規模層面,伺服器晶片廠Mellanox才是一流企業。高性能運算架構不僅再停留於數據中心內的節點,而將擴展到整個網絡,且在與Mellanox合作下都將連接至Nvidia的GPU。
黃仁勳認為未來數據中心將會是新的計算單元,全球會出現以數據中心為基礎的超大型運算網絡。且如今的HPC,包括雲計算計算及邊緣計算的發展,需要的都將不只是硬體加速,網絡加速將會成為關鍵,在宏觀或微觀層面上都有其必要性。所以他強調,Nvidia之所以高價收購Mellanox,是價值取向而非成本問題。
早看好系統構裝
無論是Nvidia、英特爾及AMD,其分歧更多還是對於技術發展的理念的不同,如Nvidia首席科學家William Dally在2013年就曾表示,不明白AMD為什麼會想要做共享緩存內存,因為這種方式只會為一些接口增加更多流量甚至形成瓶頸。
當時Nvidia是把目標鎖定在晶片堆棧,研究系統構裝(SiP)。Nvidia認為當摩爾定律放緩後,CPU將成為一種有限的計算資源,所以發展重點必須儘可能轉移到架構上。Nvidia致力於權衡晶片堆棧及SoC在各系列產品上的發展及應用,也一直都是臺積電3D封裝的大客戶,如今AMD同樣走向小晶片。
Nvidia下一代HPC晶片也將繼續採用臺積電CoWoS封裝。(Source:Nvidia)
但事實上,較年輕的Nvidia比起英特爾抑或是AMD的底蘊都稍顯薄弱,儘管如今市值逼人,但更多來自於前景的看好。其競爭對手不會對Nvidia的動作視而不見,尤其如英特爾才是真正的數據中心巨頭,AMD也正在後面虎視眈眈。
若技術方向確立,靠著資本及研發能力,在半導體業要晚半步後來居上也並非是不可能的事,畢竟掌握數據中心等HPC領域重要技術的還有賽靈思、Arm等公司,如今能夠三分天下,Nvidia當然也已是拼盡全力,若要進一步打破滅面,靠的可能要是沒人能想到的奇兵。
先不談到底能不能成功,Nvidia併購Arm對很多業內人士來講的確是夠奇了,甚至黃仁勳自己還曾否認過這件事。有批評指出,併購Arm只是Nvidia的資本狂歡而已,沒有技術上的意義。
非Arm不可?
非要Arm不可?是許多人質疑的問題,雖然Arm擁有非常廣泛的生態系統及客戶群但其本身實在是稱不上獲利豐厚,原因就在於廉價的授權費。這也意味著Nvidia若要取得其技術協助成本其實並不高,商業上沒有必要非併購不可的理由。且與Mellanox不同,取得Arm得罪的可不只是英特爾,將成為許多企業的競敵。但若出身並不富裕的黃仁勳沒有衝動購物的習慣,那麼併購Arm應該也是出於價值取向。
借鑑高通併購恩智浦一案,應已很明顯地彰顯出,在如今情勢下,Nvidia要併購Arm是有多困難。雖然美國的民主黨上臺後,此交易成功機率開始變高。但這並非失敗後,跟股東說一句對不起就可以沒事,Nvidia將為此付出不小的交易成本,甚至可以合理的猜測,黃仁勳自己也曾懷疑過此事能不能成。
黃仁勳與持有Arm股權的軟銀董事長孫正義對談AI的未來。(Source:NVIDIA)
就商業策略來看,兩家公司也不全是互補,還是有不少重複的競品及技術,例如Nvidia也使用了Arm的競爭對手RISC -V來設計其GPU內的小型嵌入式單片機,且黃仁勳表示,以後也並不會改變這個設計習慣。事實上,目前他所回答的疑問,他都保證不會有改變,那麼既然都不改變,當初為何要併購?
所以這些可能都不是他所在意的問題。黃仁勳再三強調,Nvidia買下Arm之後的唯一影響,是在Arm生態上增加Nvidia的技術,只會增加,不會改變,並繼續確保Arm的成功,兩家公司將共同發展技術藍圖。若套用他在買Mellanox時的說法,與Arm的合作將令每個生態系統的客戶連接至Nvidia的GPU,只不過從數據中心的連接,換成了物聯網的連接,Arm才是嵌入式系統的一流企業。
聽起來好像也很合理,既然有了Mellanox來填補其想像中超大型數據中心網絡的空白,那麼Arm作為填補邊緣計算與物聯網空白的重要角色,對於完善策略布局,似乎也是可以理解。但其實還是無法解釋,為何急於併購的問題,所以這些話中,唯一能著墨的大概只剩「技術藍圖」。
風險取向
若從目前已知的消息來看,Nvidia或許是擔心Arm的技術藍圖走向無法配合,就如黃仁勳此前強調的,Nvidia已轉型成軟體公司,軟體堆棧與編譯器的重要性不比晶片本身差。若要成為未來HPC翹楚,自己掌握ISA的發展會是關鍵,就如當年的英特爾一樣。
如今RISC與CSIC的界線已開始漸趨模糊,Arm為了能有更好的應用,其實也在發展更多複雜指令來迎合各家需求,但這可能引起了黃仁勳的警覺。他早在2011年就看上了Arm架構,其Project Denver發布時,就幾乎欽定了這就是「Nvidia CPU」,後續的許多產品也都創建在這樣的基礎上。
然而反過來講,若哪天有其他公司控制了Arm也就等同於限制了Nvidia軟體堆棧的發展,在各系列產品架構都與Arm核心有著緊密結合的現在,可能就成了風險。
2014年,黃仁勳發布了用於進軍移動運算系統的Arm核心處理器Tegra K1,並號稱性能比PS3的Cell處理器更高。(Source:NVIDIA)
所以軟銀的急於出售,以及近年暴露出來的Arm管理混亂問題,或許才是迫使黃仁勳出手的原因。一個過於複雜,甚至發展方向有問題的Arm架構,不是他所樂見的。過去的Nvidia可能對此無能為力,但如今市值大漲的情況下,就有了籌碼去避險,或許孫正義也是用這個方法來說服黃仁勳,畢竟Nvidia似乎已是唯一肯出高價買下Arm的廠商。
迎戰FPGA
且為應對摩爾定律的障壁,除了製程及架構外,如何從ISA中榨出性能也是選項。雖然在理論上採用何種ISA對於最終晶片的能耗及性能沒有決定性的影響,微架構的設計更重要。但Nvidia原先在Arm身上投入的成本已經相當高,且如今看來的確也很有潛力,蘋果最新的Arm核心M1晶片就是個例子。
雖然不少人看好Arm能突破x86的軟體生態,也認為這是Nvidia拿下Arm的原因,但這可能真不是重點,進軍智慧型手機或筆記本等此類消費電子產品,並非目前Nvidia發展的主要方向,也多少違背榨出更多性能的HPC策略,Tegra早已失利過一次。且就如同輿論所預測的,恐怕會引來更多反壟斷官司。
Nvidia想成為提供HPC解決方案的軟體商,並不需要與蘋果及三星等為敵,但也不能令這些企業來主導Arm的發展,反過來說,並掉Arm還有機會將Nvidia技術帶入到他們的數據中心及行動裝置,在降低風險且有機會拓展市場的機會下,似乎就不顯得多昂貴,反正大多也是用市值換來的。但若能併購成功,那麼Nvidia就篤定能成為向Arm生態中所有客戶,提供最好的GPU加速方案的廠商。
甚至為未來發展SoC也鋪平了道路,僅靠晶片堆棧可能還不夠。與Arm緊密結合的技術藍圖,將能大幅降低Nvidia設計SoC及驗證的成本。未來晶片的I/O性能也將成焦點,Nvidia真正要面對的敵人是FPGA。若要面對已拿退市面上數一數二FPGA大廠的英特爾及AMD,與Arm的緊密合作必不可少,GPU必需要準備更多的籌碼,才能真的實現黃氏定律。
(首圖來源:科技新報)