本文轉載自「知乎網友回答」,若有版權問題,首先致歉,麻煩通知後臺刪除文章,謝謝
關注「同為IC人」,關注最新熱招職位信息,關注最新半導體行業熱點信息,加入半導體專業群聊,一群IC人,暢聊IC。
常聽說的,諸如,臺積電 16nm 工藝的 Nvidia GPU、英特爾 14nm 工藝的 i5,等等,這個長度的含義,具體的定義需要詳細的給出電晶體的結構圖才行,簡單地說,在早期的時候,可以姑且認為是相當於電晶體的尺寸。
為什麼這個尺寸重要呢?因為電晶體的作用,簡單地說,是把電子從一端(S),通過一段溝道,送到另一端(D),這個過程完成了之後,信息的傳遞就完成了。因為電子的速度是有限的,在現代電晶體中,一般都是以飽和速度運行的,所以需要的時間基本就由這個溝道的長度來決定。越短,就越快。這個溝道的長度,和前面說的電晶體的尺寸,大體上可以認為是一致的。但是二者有區別,溝道長度是一個電晶體物理的概念,而用於技術節點的那個尺寸,是製造工藝的概念,二者相關,但是不相等。
在微米時代,一般這個技術節點的數字越小,電晶體的尺寸也越小,溝道長度也就越小。但是在 22nm 節點之後,電晶體的實際尺寸,或者說溝道的實際長度,是長於這個數字的。比方說,英特爾的 14nm 的電晶體,溝道長度其實是 20nm 左右。
這裡就涉及到三個問題:
第一,為什麼要把電晶體的尺寸縮小?以及是按照怎樣的比例縮小的?
第二,為什麼技術節點的數字不能等同於電晶體的實際尺寸?或者說,在電晶體的實際尺寸並沒有按比例縮小的情況下,為什麼要宣稱是新一代的技術節點?
第三,如何縮小?也就是,技術節點的發展是怎樣的?這也是題主所提的真正的問題。在這裡我特質電晶體的設計和材料,前面已經說明過了。
下面盡我所能來回答,歡迎指正。
第一個問題,一部分的答案已經說了,因為越小就越快。這個快是可以直接翻譯為基於電晶體的集成電路晶片的性能上去的。下面以微處理器 CPU 為例,首先上圖,來源是 40 Years of Microprocessor Trend Data
這張圖的信息量很大,這裡相關的是綠色的點,代表 CPU 的時鐘頻率,越高當然越快。可以看出直到 2004 年左右,CPU 的時鐘頻率基本是指數上升的,背後的主要原因就是電晶體的尺寸縮小。
另外一個重要的原因是,尺寸縮小之後,集成度(單位面積的電晶體數量)提升,這有多個好處,一來可以增加晶片的功能,二來更重要的是,根據摩爾定律,集成度提升的直接結果是成本的下降。這也是為什么半導體行業 50 年來如一日地追求摩爾定律的原因,因為如果達不到這個標準,你家的產品成本就會高於能達到這個標準的對手,你家就倒閉了。
還有一個原因是電晶體縮小可以降低單個電晶體的功耗,因為縮小的規則要求,同時會降低整體晶片的供電電壓,進而降低功耗。
但是有一個重要的例外,就是從物理原理上說,單位面積的功耗並不降低。因此這成為了電晶體縮小的一個很嚴重的問題,因為理論上的計算是理想情況,實際上,不僅不降低,反而是隨著集成度的提高而提高的。在 2000 左右的時候,人們已經預測,根據摩爾定律的發展,如果沒有什麼技術進步的話,電晶體縮小到 2010 左右時,其功耗密度可以達到火箭發動機的水平,這樣的晶片當然是不可能正常工作的。即使達不到這個水平,溫度太高也會影響電晶體的性能。
事實上,業界現在也沒有找到真正徹底解決電晶體功耗問題的方案,實際的做法是一方面降低電壓(功耗與電壓的平方成正比),一方面不再追求時鐘頻率。因此在上圖中,2005 年以後,CPU 頻率不再增長,性能的提升主要依靠多核架構。這個被稱作「功耗牆」,至今仍然存在,所以你買不到 5GHZ 的處理器,4G 的都幾乎沒有。
以上是三個縮小電晶體的主要誘因。可以看出,都是重量級的提升性能、功能、降低成本的方法,所以業界才會一直堅持到現在。
那麼是怎樣縮小的呢?物理原理是恆定電場,因為電晶體的物理學通俗的說,是電場決定的,所以只要電場不變,電晶體的模型就不需要改變,這種方式被證明效果最佳,被稱為 Dennard Scaling,提出者是 IBM。
電場等於電壓除以尺寸。既然要縮小尺寸,就要等比降低電壓。
如何縮小尺寸?簡單粗暴:將面積縮小到原來的一半就好了。面積等於尺寸的平方,因此尺寸就縮小大約 0.7。如果看一下電晶體技術節點的數字:
130nm 90nm 65nm 45nm 32nm 22nm 14nm 10nm 7nm (5nm)
會發現是一個大約為 0.7 為比的等比數列,就是這個原因。當然,前面說過,在現在,這只是一個命名的習慣,跟實際尺寸已經有差距了。
第二個問題,為什麼現在的技術節點不再直接反應電晶體的尺寸呢?
原因也很簡單,因為無法做到這個程度的縮小了。有三個原因是主要的:
首先,原子尺度的計量單位是安,為 0.1nm。
10nm 的溝道長度,也就只有不到 100 個矽原子而已。電晶體本來的物理模型這樣的:用量子力學的能帶論計算電子的分布,但是用經典的電流理論計算電子的輸運。電子在分布確定之後,仍然被當作一個粒子來對待,而不是考慮它的量子效應。因為尺寸大,所以不需要。但是越小,就越不行了,就需要考慮各種複雜的物理效應,電晶體的電流模型也不再適用。
其次,即使用經典的模型,性能上也出了問題,這個叫做短溝道效應,其效果是損害電晶體的性能。
短溝道效應其實很好理解,通俗地講,電晶體是一個三個埠的開關。前面已經說過,其工作原理是把電子從一端(源端)弄到另一端(漏端),這是通過溝道進行的,另外還有一個埠(柵端)的作用是,決定這條溝道是打開的,還是關閉的。這些操作都是通過在埠上加上特定的電壓來完成的。
電晶體性能依賴的一點是,必須要打得開,也要關得緊。短溝道器件,打得開沒問題,但是關不緊,原因就是尺寸太小,內部有很多電場上的互相干擾,以前都是可以忽略不計的,現在則會導致柵端的電場不能夠發揮全部的作用,因此關不緊。關不緊的後果就是有漏電流,簡單地說就是不需要、浪費的電流。
這部分電流可不能小看,因為此時電晶體是在休息,沒有做任何事情,卻在白白地耗電。目前,集成電路中的這部分漏電流導致的能耗,已經佔到了總能耗的接近半數,所以也是目前電晶體設計和電路設計的一個最主要的目標。
最後,製造工藝也越來越難做到那麼小的尺寸了。
決定製造工藝的最小尺寸的東西,叫做光刻機。它的功能是,把預先印製好的電路設計,像洗照片一樣洗到晶片表面上去,在我看來就是一種 bug 級的存在,因為吞吐率非常地高。否則那麼複雜的集成電路,如何才能製造出來呢?比如英特爾的奔騰 4 處理器,據說需要 30 多還是 40 多張不同的設計模板,先後不斷地曝光,才能完成整個處理器的設計的印製。
但是光刻機,顧名思義,是用光的,當然不是可見光,但總之是光。
而稍有常識就會知道,所有用光的東西,都有一個本質的問題,就是衍射。光刻機不例外。
因為這個問題的制約,任何一臺光刻機所能刻制的最小尺寸,基本上與它所用的光源的波長成正比。波長越小,尺寸也就越小,這個道理是很簡單的。
目前的主流生產工藝採用荷蘭艾斯摩爾生產的步進式光刻機,所使用的光源是 193nm 的氟化氬(ArF)分子振蕩器(這個名稱記不清了)產生的,被用於最精細的尺寸的光刻步驟。
相比之下,目前的最小量產的電晶體尺寸是 14nm,已經有了 10 倍以上的差距。
有人問為何沒有衍射效應呢?答案是業界十多年來在光刻技術上投入了巨資,先後開發了各種魔改級別的暴力技術,諸如浸入式光刻(把光程放在某種液體裡,因為光的折射率更高,而最小尺寸反比於折射率)、相位掩模(通過 180 度反向的方式來讓產生的衍射互相抵消,提高精確度),等等,可歌可泣,就這樣一直撐到了現在,支持了 60nm 以來的所有技術節點的進步。
那又有人問,為何不用更小波長的光源呢?答案是,工藝上暫時做不到。
是的,高端光刻機的光源,是世界級的工業難題。
以上就是目前主流的深紫外曝光技術(DUV)。業界普遍認為,7nm 技術節點是它的極限了,甚至 7nm 都不一定能夠做到量產。下一代技術仍然在開發之中,被稱為極紫外(EUV),其光源降到了 13nm。但是別高興地太早,因為在這個波長,已經沒有合適地介質可以用來折射光,構成必須的光路了,因此這個技術裡面的光學設計,全部是反射,而在如此高的精度下,設計如此複雜的反射光路,本身就是難以想像的技術難題。
這還不算(已經能克服了),最難的還是光源,雖然可以產生所需的光線,但是強度遠低於工業生產的需求,造成 EUV 光刻機的晶圓產量達不到要求,換言之拿來用就會賠本。一臺這種機器,就是上億美元。所以 EUV 還屬於未來。
有以上三個原因,其實很早開始就導致電晶體的尺寸縮小進入了深水區,越來越難,到了 22nm 之後,已經無法做大按比例縮小了,因此就沒有再追求一定要縮小,反而是採用了更加優化的電晶體設計,配合上 CPU 架構上的多核多線程等一系列技術,繼續為消費者提供相當於更新換代了的產品性能。
因為這個原因,技術節點的數字仍然在縮小,但是已然不再等同於電晶體的尺寸,而是代表一系列構成這個技術節點的指標的技術和工藝的總和。
第三個問題,技術節點的縮小過程中,電晶體的設計是怎樣發展的。
首先搞清楚,電晶體設計的思路是什麼。主要的無非兩點:第一提升開關響應度,第二降低漏電流。
為了講清楚這個問題,最好的方法是看圖。電晶體物理的圖,基本上搞清楚一張就足夠了,就是漏電流 - 柵電壓的關係圖,比如下面這種:
橫軸代表柵電壓,縱軸代表漏電流,並且縱軸一般是對數坐標。
前面說過,柵電壓控制電晶體的開關。可以看出,最好的電晶體,是那種能夠在很小的柵電壓變化內,一下子就從完全關閉(漏電流為 0),變成完全打開(漏電流達到飽和值),也就是虛線。這個性質有多方面的好處,接下來再說。
顯然這種電晶體不存在於這個星球上。原因是,在經典的電晶體物理理論下,衡量這個開關響應能力的標準,叫做 Subthreshold Swing(SS,不是黨衛軍...),有一個極限值,約為 60,背後的原因就不細說了。
英特爾的數據上,最新的 14nm 電晶體,這個數值大概是 70 左右(越低越好)。
並且,降低這個值,和降低漏電流、提升工作電流(提高速度)、降低功耗等要求,是等同的,因為這個值越低,在同樣的電壓下,漏電流就越低。而為了達到同樣的工作電流,需要的電壓就越低,這樣等同於降低了功耗。所以說這個值是電晶體設計裡面最重要的指標,不過分。
圍繞這個指標,以及背後的電晶體性能設計的幾個目標,大家都做了哪些事情呢?
先看工業界,畢竟實踐是檢驗真理的唯一標準。下面是我的記憶,和節點的對應不一定完全準確,但具體的描述應該沒錯:
65nm 引入 Ge strain 的溝道。
strain 我不知道如何翻譯成中文詞彙,但是其原理是通過在適當的地方摻雜一點點的鍺到矽裡面去,鍺和矽的晶格常數不同,因此會導致矽的晶格形狀改變,而根據能帶論,這個改變可以在溝道的方向上提高電子的遷移率,而遷移率高,就會提高電晶體的工作電流。而在實際中,人們發現,這種方法對於空穴型溝道的電晶體,比對電子型溝道的電晶體,更加有效。
45nm 引入了高 k 值絕緣層 / 金屬柵極的配置。
這個也是一個裡程碑的成果,我在念書的時候曾經有一位幫他搬過磚的教授,當年是在英特爾開發了這項技術的團隊的主要成員之一,因此對這一點提的特別多,耳濡目染就記住了。
這是兩項技術,但其實都是為了解決同一個問題:在很小的尺寸下,如何保證柵極有效的工作。
前面沒有細說電晶體的結構,下面補一張圖:
這是一個最基本的電晶體的結構示意圖,現在的電晶體早就不長這樣了,但是任何半導體物理都是從這兒開始講起的,所以這是「標配版」的電晶體,又被稱為體矽(bulk)電晶體。
gate 就是柵。
其中有一個 oxide,絕緣層,前面沒有提到,但是卻是電晶體所有的構件中,最關鍵的一個。它的作用是隔絕柵極和溝道。因為柵極開關溝道,是通過電場進行的,電場的產生又是通過在柵極上加一定的電壓來實現的,但是歐姆定律告訴我們,有電壓就有電流。如果有電流從柵極流進了溝道,那麼還談什麼開關?早就漏了。
所以需要絕緣層。為什麼叫 oxide 而不叫 insulator 呢?因為最早的絕緣層就是和矽非常自然地共處的二氧化矽,其相對介電常數(衡量絕緣性的,越高,對電晶體性能來說,越好)約是 3.9。一個好的絕緣層是電晶體的生命線,這個「好」的定義在這裡不多說了,但是要說明,矽天然就具有這麼一個性能超級好的絕緣層,對於半導體工業來說,是一件有歷史意義的幸運的事情。有人曾經感慨,說上帝都在幫助人類發明集成電路,首先給了那麼多的沙子(矽晶圓的原料),又給了一個完美的自然絕緣層。所以至今,矽極其難被取代,一個重要原因就是,作為製造電晶體的材料,其綜合性能太完美了。
二氧化矽雖好,在尺寸縮小到一定限度時,也出現了問題。別忘了縮小的過程中,電場強度是保持不變的,在這樣的情況下,從能帶的角度看,因為電子的波動性,如果絕緣層很窄很窄的話,那麼有一定的機率電子會發生隧穿效應而越過絕緣層的能帶勢壘,產生漏電流。可以想像為穿過一堵比自己高的牆。這個電流的大小和絕緣層的厚度,以及絕緣層的「勢壘高度」,成負相關。因此厚度越小,勢壘越低,這個漏電流越大,對電晶體越不利。
但是在另一方面,電晶體的開關性能、工作電流等等,都需要擁有一個很大的絕緣層電容。實際上,如果這個電容無限大的話,那麼就會達到理想化的 60 的那個 SS 指標。這裡說的電容都是指單位面積的電容。這個電容等於介電常數除以絕緣層的厚度。顯然,厚度越小,介電常數越大,對電晶體越有利。
那麼可以看出,這裡已經出現了一對設計目標上的矛盾,那就是絕緣層的厚度要不要繼續縮小。實際上在這個節點之前,二氧化矽已經縮小到了不到兩個納米的厚度,也就是十幾個原子層的厚度,漏電流的問題已經取代了性能的問題,成為頭號大敵。
於是聰明絕頂的人類開始想辦法。人類很貪心的,既不願意放棄大電容的性能增強,又不願意冒漏電的風險。於是人類說,如果有一種材料,介電常數很高,同時能帶勢壘也很高,那麼是不是就可以在厚度不縮小的情況下(保護漏電流),繼續提升電容(提高開關性能)呢?
於是大家就開始找,用幾乎暴力的方法,找了許多種奇奇怪怪的材料,終於最後經過驗證,確定使用一種名為 HfO2 的材料。這個元素我以前聽都沒有聽過,中文念什麼我都說不上來。就是這麼牛。這個就叫做 high-k,這裡的 k 是相對介電常數(相對於二氧化矽的而言)。
當然,這個工藝的複雜程度,遠遠超過這裡描述的這麼簡單。具備 high-k 性質的材料很多,但是最終被採用的材料,一定要具備許多優秀的電學性質,因為二氧化矽真的是一項非常完美的電晶體絕緣層材料,而且製造工藝流程和集成電路的其它製造步驟可以方便地整合,所以找到這樣一項各方面都符合半導體工藝製造的要求的高性能絕緣層材料,是一件了不起的工程成就。
至於金屬柵,是與 high-k 配套的一項技術。在電晶體的最早期,柵極是用鋁製作,後來經過發展,改用重摻雜多晶矽製作,因為工藝簡單,性能好。到了 high-k 這裡,大家發現,high-k 材料有一個副作用,就是會莫名其妙地降低工作電流。這個原理不細說了,但是跟它內部的偶極子分布有關。
於是人類又想,就想到了用金屬做柵極,因為金屬有一個效應叫做鏡像電荷,可以中和掉 high-k 材料的絕緣層裡的偶極子對溝道的影響。這樣一來就兩全其美啦。至於這種或這幾種金屬究竟是什麼,很抱歉,除了掌握技術的那幾家企業之外,外界沒有人知道,是絕對的商業機密。
於是摩爾定律再次勝利。
32nm 第二代的 high-k 絕緣層 / 金屬柵工藝。
因為 45nm 英特爾取得了巨大的成功(在很多電晶體、微處理器的發展圖上,45nm 這一代的電晶體,會在功耗、性能等方面突然出現一個較大的進步折線),32nm 時候繼續在基礎上改換更好的材料,繼續了縮小尺寸的老路。當然,前代的 Ge strain 工藝也是繼續使用的。
22nm FinFET(英特爾成為 Tri-gate),三柵極電晶體。
這一代的電晶體,在架構上進行了一次變革。變革的最早設計可以追溯到伯克利的胡正明教授 2000 左右提出的三柵極和環柵電晶體物理模型,後來被英特爾變為了現實。
FinFET 一般模型長這樣。它的實質上是增加了一個柵極。
為什麼要這麼做呢?直觀地說,如果看回前面的那張「標配版」的電晶體結構圖的話,在尺寸很短的電晶體裡面,因為短溝道效應,漏電流是比較嚴重的。而大部分的漏電流,是通過溝道下方的那片區域流通的。溝道在圖上並沒有標出來,是位於氧化絕緣層以下、矽晶圓表面的非常非常薄(一兩個納米)的一個窄窄的薄層。溝道下方的區域被稱為耗盡層,就是大部分的藍色區域。
於是有人就開始想啊,既然電子是在溝道中運動,那麼我為何非要在溝道下面留有這麼一大片耗盡層呢?當然這是有原因的,因為物理模型需要這片區域來平衡電荷。但是在短溝道器件裡面,沒有必要非要把耗盡層和溝道放在一起,等著漏電流白白地流過去。
於是有人(IBM)開了一個腦洞:把這部分矽直接拿掉,換成絕緣層,絕緣層下面才是剩下的矽,這樣溝道就和耗盡層分開了,因為電子來源於兩極,但是兩極和耗盡層之間,被絕緣層隔開了,這樣除了溝道之外,就不會漏電啦。比如這樣:
這個叫做 SOI(絕緣層上矽),雖然沒有成為主流,但是因為有其優勢,所以現在還有製造廠在搞。
於是有人(英特爾)又想了,既然都是拿掉耗盡層的矽,插入一層氧化層,那麼為什麼非要放上一堆沒用的矽在下面,直接在氧化層底下,再弄一個柵極,兩邊夾著溝道,豈不是更爽?你看你 IBM,就是沒雄心。
但是英特爾還覺得不夠,又想,既然如此,有什麼必要非得把氧化層埋在矽裡面?我把矽弄出來,周圍三明治一樣地包裹上絕緣層,外面再放上柵極,豈不是爽爆?
於是就有了 FinFET,上面這種。FinFET 牛逼的地方在於,不僅大大降低了漏電流,而且因為有多一個柵極,這兩個柵極一般都是連在一起的,因此等於大大地增加了前面說過的那個絕緣層電容,也就是大大地提升了電晶體的開關性能。所以又是一次革命式的進步。
這個設計其實不難想到,難的是,能夠做到。為什麼呢?因為豎起來的那一部分矽,也就是用作溝道的矽,太薄了,只有不到 10 個納米,不僅遠小於電晶體的最小尺寸,也遠小於最精密的光刻機所能刻制的最小尺寸。於是如何把這個 Fin 給弄出來,還得弄好,成了真正的難題。
英特爾的做法是很聰明的,解釋起來需要很多張工藝流程圖,不多說,但是基本原理是,這部分矽不是光刻出來的,而是長出來的。它先用普通精度的光刻刻出一堆「架子,然後在沉澱一層矽,在架子的邊緣就會長出一層很薄的矽,然後再用選擇性的刻蝕把多餘的材料弄走,剩下的就是這些立著的、超薄的矽 fin 了。當時我聽說這套方法的時候,徹底跪了,這智商太碾壓人了。
14nm 繼續 FinFET。下面是英特爾的 14nm 電晶體的 SEM 橫截面圖,大家感受一下,fin 的寬度只有平均 9nm:
當然了,在所有的後代的技術節點中,前代的技術也是繼續整合採用的。所以現在,在業界和研究界,一般聽到的電晶體,都被稱作 high-k/metal gate Ge-strained 14 nm FinFET,整合了多年的技術精華。
而在學術界,近些年陸續搞出了各種異想天開的新設計,比如隧穿電晶體啦,負電容效應電晶體啦,碳納米管啦,等等。
所有這些設計,基本是四個方向,材料、機理、工藝、結構。而所有的設計方案,其實可以用一條簡單的思路概括,就是前面提到的那個 SS 值的決定公式,裡面有兩項相乘組成,因此,改進要麼是改善電晶體的靜電物理(electrostatics),這是其中一項,要麼改善溝道的輸運性質(transport),這是另一項。
而電晶體設計裡面,除了考慮開關性能之外,還需要考慮另一個性能,就是飽和電流問題。很多人對這個問題有誤解,以為飽不飽和不重要,其實電流能飽和才是電晶體能夠有效工作的根本原因,因為不飽和的話,電晶體就不能保持信號的傳遞,因此無法攜帶負載,換言之只中看,不中用,放到電路裡面去,根本不能正常工作的。
舉個例子,有段時間石墨烯電晶體很火,石墨烯作溝道的思路是第二項,就是輸運,因為石墨烯的電子遷移率遠遠地完爆矽。但直到目前,壓根沒有人鳥石墨烯電晶體,因為石墨烯有個硬傷,就是不能飽和電流。
希望以上部分回答了題主的問題。
在去年的 IEDM 會議上,臺積電已經領先英特爾,發布了 7nm 技術節點的電晶體樣品,而英特爾已經推遲了 10nm 的發布。當然,兩者的技術節點的標準不一樣,臺積電的 7nm 其實相當於英特爾的 10nm,但是臺積電率先拿出了成品。三星貌似也在會上發表了自己的 7nm 產品。
可以看出,摩爾定律確實放緩了,22nm 是在 2010 左右出來的,到了現在,技術節點並沒有進步到 10nm 以下。而且去年,ITRS 已經宣布不再制定新的技術路線圖,換言之,權威的半導體國際機構已經不認為,摩爾定律的縮小可以繼續下去了。
這就是技術節點的主要現狀。
技術節點不能進步,是不是一定就是壞事?其實不一定。28nm 這個節點,其實不屬於前面提到的標準的 dennard scaling 的一部分,但是這個技術節點,直到現在,仍然在半導體製造業界佔據了很大的一塊市場份額。臺積電、中芯國際等這樣的大代工廠,都是在 28nm 上玩得很轉的。為何呢?因為這個節點被證明是一個在成本、性能、需求等多方面達到了比較優化的組合的一個節點,很多晶片產品,並不需要使用過於昂貴的 FinFET 技術,28nm 能夠滿足自己的需求。
但是有一些產品,比如主流的 CPU、GPU、FPGA、memory 這些,其性能的提升有相當一部分來自於工藝的進步。所以再往後如何繼續提升這些產品的性能,是很多人心中的問號,也是新的機會。
--
長按二維碼關注「同為IC人」
「同為IC人」將會不定期推送一些半導體行業資訊,設計經驗分享,原創設計心得分享,邀請行業內專家專題分享,發布一些招聘信息等,歡迎關注,歡迎交流。