全球15家AI晶片公司同時現身市場, 這是15年來半導體行業從未有過的奇景|深度

2021-02-21 機器之能

市場是晶片質量的檢驗者。這很殘酷,但也正是計算機設計讓人興奮的地方。

編譯 | 王宇欣、陳韻竹、Rik R

編輯 | 宇多田

來源 | EE Times

對於人類社會,深度神經網絡就像是那遙遠地平線上出現的海嘯一般。

鑑於它們的算法和應用目前仍在不斷演變,所以尚不清楚深度神經網絡(DNNs)最終將會帶來怎樣的變化。

但是,迄今為止,它們在文本翻譯和圖像、語音識別領域取得的成功讓我們認識到,深度神經網絡終有一日將會重塑計算機設計,而這樣的變化對半導體設計和製造領域也同樣有著深遠的影響。

為 DNNs 量身定製的第一批商用晶片將於今年上市。鑑於它能夠用幾星期或幾個月時間來訓練一個新的神經網絡模型,這些晶片可能是迄今為止製造規模最大的,因此也可能是成本最高的商用晶片。

今年,這個行業會看到 Graphcore 公司開發的一款非 Dram 模式的微處理器,以及其競爭對手——在圓片級晶片封裝技術方面較為領先的 Cerebras Systems 也會推出一款產品。

與此同時,英特爾收購的 2.5-D Nervana 晶片已經開始取樣,其他諸多廠商的晶片研發也都在火熱進行當中。

此外,從 ARM 到威騰電子(Western Digital),所有老牌半導體巨頭也均在研究處理器核心以加速深度神經網絡的推理部分。

「我認為 2018 年,將會是各種晶片產品『百家爭鳴』的一年。我們開始見到許多公司正在評估各種針對晶片的 idea,」加州伯克利榮譽教授 David Patterson 如是說道。

這個趨勢相當明顯,Patterson 與聯合作者 John Hennessey 在上個月出版的 Computer Architecture(在計算領域影響巨大)一書的最新版本中,用整整一個章節介紹了這種趨勢。

作者對一些內部設計給出了深度的見解,譬如 Patterson 對谷歌的TensorFlow Processor(TPU),微軟的 Catapult FPGA,以及蘋果與 Google 最新的手機晶片中的推理模塊都給出了自己的意見。

Patterson 表示:「這是計算機架構與封裝技術的復興。在明年一年我們將會看到比過去十年更多的,更有意思的計算機出現。」

在過去幾年中,深度神經網絡的興起將風投的資金重新帶回到半導體的領域。

在電子工程師時報(EE Times)最新發布的「Silicon 60」中,他們列出了 7 家致力於研究新型神經網絡晶片的初創公司,其中包含了兩個不太為人所知的公司:

北京的寒武紀科技與美國德克薩斯州的 Mythic Inc。

Chris Rowen 從 Cadence Design Systems 離職後,成立了一家名為 Cognite Ventures 的投資公司,專門看神經網絡軟體。

「我們看到具備全新架構的新創業公司如井噴式出現。我自己追蹤了 15 到 20 家公司…在過去的 10 ~15 年時間裡,在任何半導體子領域裡都不曾有過『同時出現 15 家半導體公司』這樣的事情。」Chris Rowen 說道。

他表示:「由於英偉達難以撼動的軟體地位,與其在高階伺服器訓練方面的競爭將會十分艱難;

而如果你去追求手機市場,那你一定是瘋了,要知道追求手機市場意味著你必須在很多方面都做得出色。不過在高階或是低階的手機市場中,還可能有一些機會。」

 

市場觀察者 The Linley Group 的負責人 Linley Gwennap 表示,英偉達最新的 GPU—Volta 性能非常不錯,他們對其進行了調整以進行 DNNs 的速度訓練。但 Gwennap 卻不認為 Volta 就是最好的設計。

Gwennap 說,Graphcore(英國布裡斯託)和 Cerebras(加州洛杉磯)是在訓練晶片方面最值得觀察的兩家公司,他們籌集了最多的資金,而且似乎擁有最好的團隊。

此外,由谷歌前晶片設計員創立的初創公司 Groq 聲稱將會在 2018 年推出一款推理晶片,每秒的運算和推理都能完勝對手 4 倍。

英特爾的 Nervana 是一個大型的線性代數加速器,位於一個矽中介層上,緊鄰著四個 8GB 的 HBM2 內存棧

英特爾的 Nervana,被稱為 Lake Crest(上圖),是最受關注的定製設計之一。Nervana 使用數據共享指令集中提供的單個 5 位元指數,執行 16 位矩陣操作。

與英偉達的 Volta 一樣,Lake Crest 的邏輯單元位於一個 TSMC CoWoS 中介層上(晶片-晶片-基板),緊鄰著四個 HBM2 高頻寬內存棧。

這些晶片被設計成網狀,是 Volta 性能的 5~10 倍。

雖然去年微軟在 DNN 上使用了 FPGA,但是 Patterson 仍然對這種方法持懷疑態度。「你為 FPGA 的靈活性付出了很多的代價;編程真的很困難,」他說。

Gwennap 在去年年底的一項分析中指出,DSP 也將會發揮作用。「Cadence、Ceva 和 Synopsys 都提供面向神經網絡的 DSP 內核」。

AI晶片即將到來,而架構師還未決定如何對其進行評估。

就像 RISC 處理器的早期那樣,Patterson 回憶道:「每一家公司都會說,『你可千萬不能相信別人的基準體系,但是你可以相信我的』,這可不太好。」

時間退回到那時候,當時 RISC 供應商在 SPEC 基準測試中進行了合作。現在 DNN 加速器需要定義自己的測試組件,涵蓋各種數據類型的訓練、推理。

為了順應這種趨勢,12 月 12 日,由 20 多家頂級伺服器和軟體製造商組成的交易處理性能委員會(TPC)宣布組建一個工作組對機器學習的硬體和軟體基準進行定義。

TPC - AI 委員會主席 Raghu Nambiar 表示,這個工作組的目標是要創建出對 CPU 和 GPU 加速器通用的測試。但是,團隊成員名單和時限仍未最終確定。

百度,於 2016 年 9 月發布了一個基於深度學習工作負載的開源基準,使用 32 位浮點數執行訓練任務。它在六月份更新了 DeepBench 以涵蓋推理工作並使用 16 位制。

美國哈佛大學的研究人員發表的 Fathom 套件,定義了 8 個人工智慧工作負載,支持整數和浮點數據。Patterson 說:「這是一個開始,但是要成為一個讓人滿意的全面基準測試套件,還有很多的工作要做。」

「如果我們致力於建立一個好的基準,所有投入工程的錢都會花在刀刃上。」

 除了基準之外,工程師需要持續追蹤不斷變化的神經網絡算法,從而確保他們的設計能跟上時代。

高通公司下一代核心(next-generation-core)研發總監 Karam Chatha 表示:

「軟體正在不斷變化,但是我們需要儘早把硬體拿出來,因為硬體會影響軟體——軟硬體之間總會有這樣相互牽連的關係。」

到目前為止,這家移動晶片供應商仍在驍龍處理器的 DSP 和 GPU 內核的軟體平臺上進行神經網絡運行工作。

但是一些觀察人士預計,高通將為機器學習定製一個全新的模塊。在 2019 年,該模塊將成為驍龍處理器中一個大約 7 豪微米的部分。

高通展示了一個 DNN 定製加速器研究實例,但現在,高通在使用通用 DSP 和 GPU 內核上的軟體

Patterson 表示:「市場是晶片質量的檢驗者。這很殘酷,但也正是計算機設計讓人興奮的地方。」

實際上,早期的晶片玩家已經抓住了這次競爭的機遇。

舉例來說,Facebook 最近證明,通過大幅增加所謂批量尺寸(batch size)中的特徵數目,能將某些任務的訓練時間從一天縮短到一小時。

但這對於晶片製造商 Graphcore 而言可能是個壞消息。因為 Graphcore 試圖將所有操作放在本地 SRAM 中運行,以消除外部 DRAM 的訪問延遲,但與此同時也會限制其內存佔用。

Patterson 說道:「Graphcore 專為小批量設計,但是幾個月前軟體結果表明,大批量尺寸效果更好。事情總是瞬息萬變。」

另一方面,Rex Computing 認為他們正好抓住了有利的機遇。該初創公司的 SoC 最初為高性能伺服器設計,其中使用了一種新型暫存器內存。

Rex Computing 聯合創始人 Thomas Sohmers 表示,Rex 的方法消除了在虛擬頁表中對數據緩存的需求,這是一種在 GPU 中使用的技術,能增加延遲。

因此,Thomas Sohmers 說,尤其在處理當下神經網絡中流行的矩陣運算和矢量運算時,Rex 晶片性能遠勝於現在的 GPU。

該初創公司計劃於 6 月份推出 256 核的 16-nm SoC,希望其能效比能達到 256 Gflops/W。

與此同時,研究人員正在嘗試單比特浮點數、 32 比特浮點數以及整型等各種精度的計算,旨在尋找神經網絡計算中效率最高的方法。

看起來他們在某一點上達成了一致,即不要在不同的精度等級間進行轉換。

幾十年來,深度神經網絡一直是人工智慧領域中的一個小分支。

自 2012 年左右開始,包括 Facebook 的 Yann LeCun 在內的研究人員開始使用特定種類的 DNN 進行圖像識別,最終獲得了比人類更高的準確率,顯示出驚人的成果。

深度學習技術吸引了學界,現在學術圈正在高速發表論文,尋求新的突破。

如今,DNN 正在提供商業化服務,如亞馬遜的 Alexa 、谷歌翻譯、Facebook 面部識別等。網絡巨頭和全球其他競爭者正競相將這些技術應用於各種服務中,盡其所能尋找殺手級應用。

微軟每年都會在人工智慧方面主持兩場僅員工參與的會議。前 SPARC 處理器架構師 Marc Tremblay 表示,上一場會議有 5000 人參加。Marc Tremblay 現在正帶領微軟進行 AI 專用晶片和系統方面的工作。

專家們承認,他們並不完全理解現有算法為何能得到良好的效果。

這質疑了 DNN 及其他各類模式的相對有效性,例如循環神經網絡(RNN)和卷積神經網絡(CNN)等。與此同時,學者還在不斷發明新的模式。

「算法在五年內會發生變化的可能性很高。我們正在進行一場賭博——像矩陣乘法這樣的最底層東西是不可改變的。」在最近關於人工智慧的 IEEE 研討會上,AMD 公司研究員 Allen Rush 這樣說。

這就是 Google 用 TPU 做的賭注。

最新版本的 TPU 是能同時針對訓練和推理工作。本質上說,TPU 是一個巨大的乘加單元陣列,對矩陣操作進行運行和存儲。預計 Nervana 和 Graphcore 的晶片將效仿這一模式。

哈佛大學前大腦研究員、Nervana 的聯合創始人 Amir Khosrowshahi,目前正在英特爾 Nervana 集團任首席技術官。

他說,目前在神經網絡方面取得的成功佔據了人工智慧領域成果的絕大部分。他在 IEEE 研討會上表示:

「由於深度學習的極大成功,我們對很多領域都避而不談。當下,人人都在研究 CNN,這是一場悲劇……不要以為現在的熱潮會一直持續到明年。」

如今的 DNN 受到了極大的關注,但是它只代表人工智慧廣泛領域中的一小部分

儘管 DNN 在圖像識別方面比人類有著更高的精確率,「但如今的數據科學家不得不花費過長的時間對數據進行預處理,對模型和參數進行迭代,並且等待訓練收斂……其中,每個步驟要麼有著過於密集的勞動,要麼有著過於密集的計算量」,Khosrowshahi 說道。

總而言之,他補充說:「人工智慧領域仍面臨著許多難題。頂尖研究者能讓機器人打開一扇門,但是讓機器人端起茶杯可能比打敗 AlphaGo 困難得多。」

在這種環境下,Facebook 和 Google 等網絡巨頭正在發布大量的數據集,讓更多的人從事前沿問題,例如將識別應用於視頻等新興領域或其他數據類型。

隨著算法的不斷發展,研究人員也在拓展深度學習的應用邊界。

谷歌致力於將深度神經網絡系統性地應用於一系列問題,比如為盲人用戶自動添加圖片說明文字、解讀核磁共振成像的掃描結果,以及輔助工廠的質量控制監督工作。

「人工智慧並非一種單一的技術或產品,」谷歌研發部負責人李佳告訴 IEEE 研討會,「我們需要先理解那個領域,然後收集數據、找出適配算法並提出解決方案。每一個新問題都需要一個不同的模型。」

事實上,業界正在將深度神經網絡系應用於幾乎任何領域,包括晶片的設計與製作。英特爾列出了 40 多個可能的應用方向,從消費者在線購物助理,到華爾街自動交易程序。

現任 Target 數據科學家的 Shirish Tatikonda,曾在 IBM 做研究員,對深度神經網絡的應用邊界有著更加清醒的認識。

他在一次簡短的採訪中談到,零售商的大多數數據都是有關聯的,不是那種最適合於神經網絡的非結構化類型;在 Target 所接手的業務問題中,只有 10% 適用於深度神經網絡。

儘管如此,Target 公司仍在積極探索該領域,其大約 10% 的系統使用的是 GPU 伺服器,用於訓練神經網絡模型。

為了實現規模化,谷歌的研究人員正致力於探究被其稱為 AutoML 的軟體。其思想是使用神經網絡來自動生成模型,無需數據科學家對其進行手動調整。

雖然近年來有許多研究人員尋求減少深度神經網絡模型的內存佔用,但其尺寸差異仍然十分巨大

機器人先驅 Rodney Brooks 擔心,業界對這種算法的預期可能過於樂觀了。他在最近的一次談話中說:「深度學習很好,但它正被當成萬靈藥。」

就 Patterson 而言,他仍然選擇保持樂觀。雖然廣博的人工智慧領域沒有兌現過去的一些承諾,但它在機器翻譯等領域所取得的成功卻是真實的。

「你可以說好採的果子都被採完了,不會再有更令人興奮的事情了,但事實上幾乎每周都會出現新的進展. 所以我想我們會發現更多的用途。」

深度學習的早期發展充溢著狂熱與碎片化,即使軟體融合工作都被搞得支離破碎。

百度的人工智慧研究小組進行了一項調查,提出 11 項舉措來彌合不同神經網絡管理軟體框架之間的隔閡。

Facebook、微軟以及新近加入的亞馬遜發起了一個比較靠譜的開源解決方案,叫做開源神經網絡交換(Open Neural Network Exchange,ONNX)。

該項目在 12 月發布了 ONNX 的 1.0 版。其目標是將軟體框架領域的 12 家競爭廠商所創建的神經網絡模型轉化為一種圖形表示。晶片製造商可以使用這種圖形表示來進行硬體開發。

對於初創企業來說,無論是亞馬遜的 MxNet 或谷歌的 TensorFlow,還是 Facebook 的 Caffe2 或微軟的 CNTK,這些競爭廠商所編寫的模型框架都很難互相兼容,而它們也無力編寫單獨的軟體,ONNX 無疑是一個福音。

12 月 20 日,由 30 多個主要的晶片廠商組成的一個研究小組發布了他們的首選方案——神經網絡交換格式(Neural Network Exchange Format,NNEF)。

NNEF 旨在為晶片製造商提供一種個性化的選擇,使他們能夠創建屬於自己的、供內部員工使用的格式,比如英特爾的 Nervana Graph 和英偉達的 TensorRT。

百度創建的格式有 ISAAC、NNVM、Poplar 和 XLA。

「置於哪一個將被成功實施,現在還不好說,但我們正在穩步前進,而最終一定會有一個從中脫穎而出,」百度的矽谷人工智慧實驗室高級研究員 Greg Diamos 說道。

在人工智慧框架方面,亞馬遜聲稱其 MxNet 框架及其新開發的 Gluon API 效率最高

另外,谷歌已經開始致力於自動化深度神經網絡模型的簡化過程,以便在智慧型手機、物聯網(IoT)節點等任何平臺上運行。

如果該項目成功的話,可以將 50 兆字節的模型縮小到只有 500 字節。

谷歌也在探索如何在手機端進行有限模型訓練,其方法是調整模型的頂層網絡,或是在白天收集數據,然後在夜間運行流程。

同樣,SqueezeNet 和 MobileNet 等業界同行也在開發類似的成像模型,精度與其科技界的大表哥們不相上下。

「我們已經看到,機器學習正被大量應用在五花八門的產品中,」谷歌的 TensorFlow Lite 負責人 Pete Warden 說道,「支持我徹夜工作的動力,就是能夠降低一絲一毫的運算能耗。」

當專家們專注於探索人工智慧的未來時,他們看到了一些有趣的可能性。

目前,我們所使用的有監督學習是基於手動調整。

Warden 是谷歌的一名研究人員,他和同事們都認為,不久的將來會出現一些半監督的學習方式,例如手機等客戶端設備可以獨自處理一些學習任務。

而最終的目標是無監督學習——即計算機自學,無需工程師的幫助。

一直以來,研究人員都希望能夠尋找出一種方法,使手機或物聯網節點等設備在收集數據時可以自動對其進行標記。

「谷歌認為,在這個中間階段,我們現在需要進行大量的計算,但是一旦可以自動標記數據,你就只需要索引新的增量內容,這更像是人類的數據處理方式,」Western Digital 首席數據科學家 Janet George 說道。

無監督學習打開了一扇通往加速機器智能時代的大門,有些人將其看作是數字天堂。

而另一些人則擔心,缺少人為幹預的技術可能會失控,從而帶來災難性的後果。「這就是我害怕的地方,」處理器領域資深老兵 Norm Jouppi 說道,他曾領導了谷歌的 TPU 項目。

與此同時,從事半導體研究的學術工作者對於未來的人工智慧晶片有著自己的長遠設想。

現在,英特爾、Graphcore 和英偉達「已經在製造全刻線(full-reticle)晶片,下一步就是三維技術,」Patterson 說道,

「在摩爾定律當道時,人們會比較排斥複雜的晶片封裝技術,對其可靠性和成本問題有所顧忌。現在摩爾定律已經終結了,晶片封裝領域將會出現很多其它的創新性實踐。」

最終任務是創造新型的電晶體,使其可以堆疊在由邏輯和存儲器組成的裸片層上。

Suman Datta 是 Notre Dame 學院的一名電氣工程學教授,他認為負電容鐵電電晶體很適於創建這類晶片。

在最近一次有關所謂的單片 3D 架構的會議上,他談到了該領域的未來發展圖景。這種設計利用並提高了三維 NAND 快閃記憶體在晶片堆棧中的效益。

在今年 2 月舉行的國際固態電路會議(International Solid-State Circuits Conference)上,來自伯克利、麻省理工和史丹福大學的一個團隊將提出一種體系架構,同樣富有遠見。

晶片(下圖)在帶有碳納米管制邏輯的裸片上,堆疊了電阻式 RAM(Resistive Random Access Memory,ReRAM)結構。

來自上述三校的研究人員將在 ISSCC 上介紹一種新型加速器,它使用碳納米管、ReRAM 以及模式作為計算元素

受深度神經網絡的啟發,該裝置採用的是近似模式,而非計算機一直以來所使用的確切數字。

這個所謂的高維計算使用成千上萬維向量作為計算元素,伯克利教授 Jan Rabaey 說道,他也是該論文的貢獻者之一,並且是英特爾的智能諮詢委員會成員。

這種晶片可以從案例中進行學習,且其所需的操作次數遠遠少於傳統系統,Rabaey 說。在一個關聯的內存陣列中,流片前的測試晶片將使用陣列振蕩器作為與 ReRAM 單元配對的模擬邏輯。

「我夢想中的引擎在場邊給我作指導…... 我的目標是把人工智慧的操作能耗降低到 100 毫伏以下,」Rabaey 在 IEEE 人工智慧研討會上說,

「我們需要重新思考我們的計算方式。我們的關注點正在從算法轉向基於數據的系統。」

大公司:阿里、百度、谷歌、IBM、科大訊飛、浪潮、三星、蘇寧、騰訊、微軟、西門子、亞馬遜、英特爾、英偉達

人物報導:初敏、黃學東、Peter Lee、陸奇、任小楓、沈威、施堯耘、司羅、王永東、吳恩達、肖建雄、林元慶、阿里iDst金榕

自動駕駛:Drive.ai、Innovusion、景馳科技、思嵐科技、速騰聚創、圖森未來、Uber、馭勢科技

晶片與機器人:波士頓動力、地平線、Embodied Intelligence、鋼鐵俠科技、國芯、寒武紀、庫柏特、深鑑科技、馭光科技

新零售:阿里無人店、Amazon Go、雙十一、任小楓談智能零售、瑞為智能

語音與語言:凡普金科、海知智能、極限元、驀然認知、奇點機智、啟英泰倫、三角獸、思必馳、小源科技、雲知聲、竹間智能、助理來也、追一科技

計算機視覺:晶泰科技、曠視科技、螞蟻佐羅、碼隆科技、商湯科技、體素科技、Versa、小庫科技、雲從科技、依圖科技、中科虹霸、中科視拓、海康威視

商業地理:加拿大、匹茲堡、瑞士

 

相關焦點

  • 前瞻半導體產業全球周報第15期:華為掀起半導體行業波瀾 「麒麟...
    9月6日,華為在德國發布了全球第1款旗艦級的5G集成晶片麒麟990。雖然在架構上,麒麟990未能採用ARM全新架構令人略有失望,但通過對舊架構的吃透,他們還是實現了性能的提升。並首次實現了對高通同一年度旗艦處理器的全面超越。更重要的是,在「5G元年」這一時間,麒麟990成為全球首款集成5G基帶的旗艦處理器,無疑更加激動人心,直接點燃了相關行業積蓄已久的5G熱情。
  • 「行業深度」半導體行業(細分領域晶片、設備材料)深度報告
    一、半導體行業概況 國內半導體行業市場規模快速增長,但需求供給嚴重不平衡,高度依賴進口,國產核心晶片自給率不足10%。 在移動終端設備穩定出貨的背景下,隨著通信網絡向5G升級,射頻器件的數量和價值量都在增加,射頻前端晶片行業的市 場規模將持續快速增長,從2010年至2018年全球射頻前端市場規模以每年約13.10%的速度增長,到2020年接近190億美元 射頻前端各組件增速不同。
  • 一文看全:全球99家AI晶片公司全景圖,中國正在崛起
    最近,晶片專家唐杉博士更新了「AI晶片全景圖」,同時加了版本號和發布時間,介紹了現有的幾乎全部深度學習處理器,是值得收藏的超全資料。 AI晶片知多少? 最近,晶片專家唐杉博士更新了「AI晶片全景圖」,同時加了版本號和發布時間,介紹了現有的幾乎全部深度學習處理器,可能是對AI晶片廠商做的最全面的列表了。
  • 半導體產業深度研究 -晶片總覽
    伺服器/PC領域競爭格局—Intel和AMD(1)歷史淵源-X86陣營Intel與AMD公司的創始人都來自於仙童半導體公司,算是同門同宗。隨著仙童半導體將戰略中心轉移到攝影器材領域,這兩家的創始人離開並創立了自己的公司。
  • 2020年最值得關注的10家國外AI晶片初創公司
    AI晶片之戰正在英特爾和Nvidia等半導體巨頭之間進行,許多較小的公司也押注參與競爭。到目前為止,Nvidia的GPU一直處於專用AI晶片競賽的領導地位,但是一些AI晶片初創公司相信,其產品無論是在成本、效率、性能還是在深度學習工作負載的靈活性方面,它們都可以超越晶片巨頭。
  • 半導體設備行業深度報告:市場再創新高,國產化替代空間廣闊
    另一種模式為垂 直分工模式,即 Fabless(無晶圓製造的設計公司)+Foundry(晶圓代工廠)+OSAT(封裝測試企業),Fabless 是指專注於晶片設計業務,只負責晶片的電路設計與 銷售,將生產、測試、封裝等環節外包的設計企業,代表企業有高通、英偉達、 AMD 等;Foundry 即晶圓代工廠,指只負責製造、封測的一個或多個環節,不負 責晶片設計,可以同時為多家設計公司提供服務的企業,代表企業有臺積電
  • 前瞻半導體產業全球周報第48期:晶片巨無霸回歸!
    華為海思邁入全球半導體銷售額前105月6日,全球半導體市調機構IC Insights發布報告稱,一季度全球前十大半導體銷售榜單中,總部位於美國的有6家公司(英特爾、美光、博通、高通、德州儀器和英偉達),韓國有2家(三星和海力士),中國臺灣1家(臺積電),中國大陸1家(海思)。
  • 深扒全球仿生晶片計劃!15+公司已入局,人造大腦通往未來計算之門
    但從已透露的信息來看,Koniku Kore並不是紙上談兵,它在醫療、農業、軍事及機場安檢等領域的落地前景,已經吸引多家知名公司的青睞。其早期的客戶包括埃克森美孚、保潔、製藥公司阿斯利康、全球化學品製造商巴斯夫等。近期新加坡樟宜機場也使用了Koniku的技術,用於防控新冠肺炎傳播。Koniku並非個例,人腦作為自然界最複雜的結構體之一,已經啟發了太多不可思議的奇妙想法。
  • 華人CEO掌舵的全球十大半導體公司
    這是一個智慧型手機和AIoT的時代,半導體產業逐漸從重到輕,沒有晶圓廠也沒有晶片設計的Arm卻憑藉微處理器內核IP主導著智慧型手機行業。純代工廠商TSMC在晶圓製造工藝技術上已經超越英特爾和三星等IDM廠商。華為和蘋果等手機廠商使用自研的手機晶片,谷歌和亞馬遜等網際網路巨頭也開始自研晶片。
  • 科技紅利大時代7-半導體深度:尋找全球半導體產業鏈結構性投資機會(一)
    :未來看結構性機會半導體行業自20世紀50年開始發展到現在,是推動全球科技產業發展的重要技術,2000年以前經歷的大型計算機、PC、NB時代是半導體行業發展最迅速的階段,21世紀後的Internet和手機時代仍驅動半導體行業高速成長,隨著消費電子整體終端出貨量增速的放緩以及全球半導體產業行業規模基數的擴大,未來全球半導體行業步入成熟期,全行業增速放緩,預計未來五年CAGR
  • 半導體行業的晶片設計流程及代表企業詳解
    國內晶片設計行業現狀  目前,國內晶片設計企業數量趨於穩定,截止2017年10月底,全國共有約1380家設計企業,比去年的1362家多了18家,總體變化不大。, 2017年全行業銷售預計為1945.98億元,比2016年的1518.52億元增長28.15%,在全球集成電路設計業所佔的比重再次大幅提高。
  • 不止是晶片!半導體全產業鏈分析
    根據ICInsight的數據,2016年全球20大半導體企業中,仍然以海外公司為主。其中美國有8家,日本、臺灣地區和歐洲各佔3家,韓國佔2家,新加坡有1家,沒有一家大陸半導體公司上榜。不管是設計製造還是IDM模式方面,大陸半導體產業和國際先進水平仍然存在不小差距。
  • 蘋果和華為的存儲晶片供應商預計半導體市場2020年將強勁復甦
    雷鋒網按,半導體行業有明顯的周期性,2019年半導體市場處於低位,加上貿易戰的影響,存儲晶片降價也讓三星失去了半導體產業第一的位置。不過,臺灣旺宏電子董事長預計2020年市場將強勁復甦。他還指出,即便中國投入大量資本發展半導體行業,也需要至少20年來培養人才和積累技術。
  • 半導體製造行業深度報告:從um級製造到nm級製造
    >晶圓廠的產能我們將分別針對這三個問題進行深度剖析。中芯國際在這兩年略有下降,但相較 15 年前依舊處於較高水平。聯電在放棄 7nm 製程的研發後,資本支出近兩年有明顯下降。格芯雖然放棄了 7nm 製程,但是轉戰 SOI 工藝,因此資本支出下降沒有聯電明顯綜上,半導體製造行業發展靠的是人才、技術、資本三者結合。人才是企業的軟實力, 為公司提供源源不斷的研發智慧。
  • 從中美齟齬看全球及中國半導體行業發展機遇與挑戰
    Michael Chen擁有超過30年的半導體從業經驗,曾任華美半導體協會會長,曾任多家國際上市半導體公司高層管理,如美國Pericom(NSDQ:PSEM/DIOD)總經理、通富(SZ:002156)執行副總,曾作為合伙人及總裁創辦4家半導體高科技企業,並分別在納斯達克上市或被成功收購。現為上海交通及復旦大學客座教授;出版多本著作: 如《戰略高地》、《老爸的叮嚀》等。
  • 深度:AI晶片終極之戰,四大門派爭奪千億市場
    他們其中既有一路保送僅僅24歲就博士畢業的少年天才、也有在業內叱吒風雲數十年的行業泰鬥;既有成立僅一年公司估值就超過10億人民幣的創業神話、也有市值高達8000億美元、全球坐二望一的科技霸主。經智東西初步測算,僅國內AI晶片頭部創業公司的融資金額就已超過了20億人民幣。而根據中信證券測算,2020年全球AI晶片的市場規模可達146.16億美元。
  • 股權一級市場有所回暖,醫療健康、晶片半導體等行業受熱捧,中芯...
    /PE、一級市場戰略投資、不含一級市場併購◆2020Q2,行業分布從事件數量上看來看,主要集中在醫療健康、企業服務、人工智慧和智能製造四大領域◆從事件金額來看,醫療健康、智能製造、汽車交通、生活服務的事件金額較多,均超過100億人民幣◆醫療健康行業研發成本高、投資周期長,這決定了該行業整體融資額較高;智能製造行業,「中芯南方」獲得國家集成電路基金II和上海集成電路基金
  • 2019年AI晶片產業深度研究報告
    第三次爆發的核心引爆點是深度學習算法的出現,但其背後的支撐是數據和算力。對整個 AI 行業來講,算法、數據和算力三大基本要素中,數據尤其是海量數據的獲取和處理難度在下降,算法也在深度學習模型的基礎上不斷優化,而負責將數據和深度算法統一協調起來的晶片能否獲得大的飛躍,成為市場關注的焦點。
  • 半導體行業研究與投資策略:矛盾與破局
    未來針對不同的人工智慧應用類型和場景,將會有深度 學習之外的新型算法脫穎而出,這就要求智能晶片的架構不能僅僅針對深度學習設計,也 要適應不同類型的算法,同時兼顧能效和靈活性。目前異構計算雲化進程中,GPU 雲主機 佔據主流地位,隨著 FPGA 雲主機生態的建設和逐步完善以及 ASIC 晶片的逐步成熟,未來 異構計算領域將會呈現三分天下的局面。
  • 師說 | 2019年AI晶片產業深度研究報告
    第三次爆發的核心引爆點是深度學習算法的出現,但其背後的支撐是數據和算力。對整個 AI 行業來講,算法、數據和算力三大基本要素中,數據尤其是海量數據的獲取和處理難度在下降,算法也在深度學習模型的基礎上不斷優化,而負責將數據和深度算法統一協調起來的晶片能否獲得大的飛躍,成為市場關注的焦點。