2020年12月8日-10日,第十五屆中國IDC產業年度大典在北京國家會議中心正式召開。作為數據中心雲計算產業內知名的盛會以及IDC企業、電信運營商、網際網路、金融、政府和廠商等產業上下遊的高效溝通平臺,與會嘉賓包括政府領導,行業專家和企業代表數千人。以「數據中心新技術與應用」為主題的分論壇於10日舉行,上海數據港股份有限公司技術管理中心總經理王肅發表了《新基建時代,數據中心節能創新技術趨勢探索》主題演講。
王肅:尊敬的各位領導,各位嘉賓,大家上午好。其實這個話題之前在多次論壇上和大家分享過,因為是第一場,時間允許的話我們可以互動一下。
跟大家分享的話題主要分為兩部分,第一部分跟大家看一下,特別是今年後疫情時期IDC市場或者數字經濟市場是什麼樣的。第二部分,想跟大家共同探討一下我們有哪些新技術、新應用可以為整體的數據中心基礎設施提供一些新的思路,包括剛才下面和王建新老師也探討了一下,就我們現在看來不管是電器架構、供電系統的原理或者暖通系統的原理,特別是暖通系統,其實它們的製冷原理一百多年以來一直都是這樣的基礎原理形式,發展這麼長時間已經沒有什麼發展了,但是今天很高興看到我們這次主辦的主題可能和液冷有一定關係,下面我有一部分想跟大家分享一下液冷的改變不單單是技術層面的改變,而是從整體思路上的改變。
先跟大家一塊分享我們現在數據中心行業的現狀。數據中心現在講的是專有名詞,更泛泛的講可以理解為IDC的基礎設施的支撐,比如一些大數據、雲計算、人工智慧、智慧城市、工業網際網路以及物聯網都需要基礎設施進行支撐的。為什麼說數字新基建將成為未來科技發展的鋪路石呢?
第一點,因為拉動經濟的發展。中國數字經濟的蓬勃發展是未來增長的重點,其實也是世界經過重新發展的模式,預測到2022年全球數字經濟比重將達到60%,中國數字經濟比重將達到65%。在今天來的路上我看到一條APEC的推送,整個亞太地區到2023年將會有65%的GDP產值要實行數位化,這部分的產量總價值大概在1.2萬億美金左右,所以說數字經濟拉攏全球經濟,特別是中國經濟的增速特別快。
第二點,增強抗衝擊能力。在今年大家的感受應該非常明顯,特別在疫情期間,作為父母的可能都會感受到孩子在家上網課,我們在家辦公時候的外賣,可以說疫情期間數字經濟撐起了一片天。從遠程辦公到在線課堂,從線上消費平臺到無人商店,新產業、新模式緩解疫情的影響,也增強了中國經濟的抗衝擊能力。
第三點,前沿科技的發展。在2019年10月31號的時候,我們的5G技術已經正式商用,在2025年有望擴展至全球411家電信運營商,截止到2020年2月底,5G套餐用戶達到2000萬左右,未來將產生更多的新產業、新業態、新模式。
第四點,提升空間大。中國雲計算的水平發展距離北美這些發達地區還有一定的差距,我們的提升空間非常大。我們對標一些龍頭廠商,阿里雲的收入現在是AWS的七分之一到八分之一左右,從伺服器的保有量來看,阿里騰訊的伺服器保有量僅是AWS的四分之一,從超級數據中心看,2017年北美佔44%,中國佔8%。整體的綜合運算能力要比分散式數據中心好一點,中國目前來講超大型數據中心佔比或者提升空間非常大。
從發展速度來看,剛才大家看到整體總量離北美地區還有一定差距,但是我們的發展速度已經是非常快了。中國雲計算起步雖然晚沒美國,但是發展更快,且具備和美國相當體量的IT和網際網路+環境,中國勢必成為全球雲計算發展的第二極,尤其是IaaS有望在2022年佔到20%。
國內我們在2020年的這一部分IDC業務是1958億,到2020年預測可以達到3200億。2019年全球的IDC業務市場整體規模接近7630億,同比2018年增長了22%,但是這個僅是IDC業務的一個產值,其實背後還有一些間接的業務,這個體量要遠遠大於這個數字。
下一步看一下IDC增長的核心驅動力。中國移動網際網路接入流量在2018年的消費量達到了711億GB,同比增長了190%,近三年平均增長率超過150%。距離我們業務增長的對標指標來看還有很大差距。可以說網際網路流量的指數發展與數據中心建設容量的線性發展之間不匹配是目前數據中心發展的主要矛盾。
中國公有雲市場在過去三年中平均年增長率超過40%,未來三年預測不會低於30%。在2018年中國市場只有7.1%的系統基礎設施支出轉移到了雲IaaS支出,預計到2018年到2023年複合年增長率達到41%,到2023年中國將有超過四分之一的支出轉移到IaaS支出。
下面分享一些市場現狀。
今天我們整個論壇主要的部分是液冷部分的應用,其實這裡可以看到浸沒式液冷的應用,包括溫暖數據中心在海裡的,以及極地的數據中心。我們覺得數據中心節能以及能效方面主要有幾個方面可以產生降低能耗的途徑,第一點減少鏈路環節,以及提高產品效率。比如說HVDC的應用,比如說巴拿馬電源。另一種新技術,新架構,以及新產品的應用,比如說浸沒式液冷的應用,間接蒸發冷的應用,顯著降低PUE值。液冷不受地域和環境的影響,大家比較公認的評判數據中心的節能指標的值可能就是PUE,這個值是計算比較簡單,相對來說大家比較接受,具備一定的公平、公正性的值。但是它有自己的不客觀性,後面再分享一下。我們從IDC數據中心的運營成本構成來看,電費佔51%的成本,帶寬佔18%,設備的折舊等佔到17%,人工成本佔5%,其它佔9%。能源的消耗費用還是數據中心的主要成本佔比。
PUE為什麼具有一定的不客觀性呢?目前是大家比較接受的值,但是不去倡導唯PUE論,其實這個觀點我在一兩年前跟大家分享過,但是那個時候可能大家還是一個看PUE值比較客觀,比較簡單,或者利於計算。其實從整體的最近全球數據中心近五年的PUE值趨勢來看,這麼多的技術投入,這麼多新概念的應用,全球數據中心的PUE值看平均數下降了0.07%。右側這個圖是2017年的時候,美國通信信息技術協會綜合了各個廠家典型的伺服器做的伺服器的溫度和後端風扇的曲線對比圖。我們現在講降低PUE或者我們把PUE做到很好看的數值,有一大部分的技術手段是提高供水問題,其實也是間接提高了送水溫度。一部分是為了提高冷機的能效,另一個目的是延長自由冷卻時間。自由冷卻對於數據中心的能效影響還是很大的,但是第二個圖可以看到如果在進水溫度在24的時候,我們看到黃色代表伺服器的進風溫度,在24的時候伺服器的風向功率是12千瓦左右,但是我們繼續提高伺服器的送風溫度,可以看到當提高到大概在34度左右的時候,伺服器後端的風扇溫度可以飆升到65瓦左右。也就是說其實從PUE上來看,伺服器的風向功率也是算在公示的IP裡面的,但是這部分不能有效轉化為伺服器的算力,即使採用這些手段對於數據中心的整體能耗是不是有利的影響,這個我們看還不是這樣。
下面我想通過四個案例跟大家分享一下我們怎麼去看待節能應用賦能數據中心價值鏈。首先第一個案例是在張北,這個項目在建設之初就有好多的朋友特別感興趣,因為這個項目是第一個全球大範圍應用乾冷氣作為主冷源的項目。大家知道張北有些氣候特點,它位於壩上的高寒區,冬季的溫度會達到34.8度,夏季會達到33.5度,冬季和夏季對於整體的暖通系統的運行並不是太有效,我們可以看到平均氣溫3.2度對於節能系統比較好,但是對運維的安全性提出了挑戰。另一點海拔1500米,空氣密度也會是一個問題,其中最重要一點就是水資源少,年平均降水量只有300毫米,為什麼選擇乾冷氣作為主冷源呢?一個主要原因就是降水少,沒有足夠的水源支撐這種冷源形式。
這個是我們數據中心的一個基地圖,之所以我們的業主或者客戶選擇這個也是為了符合環境,也是性價比來講綜合的選擇。整個園區一共五棟樓,一期的ABC都是用的乾冷氣作為主冷源,一棟樓建築面積2萬平米。乾冷氣這個東西主要就是三部分組成,一部分位於上面的EC風機,一個是側面的管,還有一部分是水噴的管路。一棟樓12兆瓦的情況下,我們把冷源分為AB兩個區,每個區佔比60%,還有40%由風冷為輔助。乾冷是6850千瓦,在極端天氣會降到2650千瓦。
我們為什麼說這個乾冷氣選擇是比較好的選擇呢?我們通過數據跟大家分享一下。
這個系統運行有三種模式,在18度以下是純乾冷氣,18度到20度是乾冷氣加水冷氣,如果是大於24度的,全年大於24度的時間是148小時,等效是6.2天。全年可利用的時長是8612小時,等效的情況是359天,也就是說全年有95%的左右的時間都可以利用自然冷源的。從環保層面可以減少廢熱、廢水的排放。
這是剛投入的時候,我們現場實際拿到的運維數據。5月10號日平均溫度是3.8度,它處於乾冷氣製冷模式,IT負載率在27%的情況下,CLF大概是0.098。5月13號到了15.4度,處於混合運行模式下,CLE是0.221。
另一個跟大家分享的案例是我們剛剛在華東和業主投入的浸沒式液冷數據中心。這個數據中心如果沒有統計錯的話,應該是全球最大的應用浸沒式液冷的數據中心。浸沒式液冷很簡單的理解,通過液冷機櫃的冷卻液體對IT設備直接接觸發熱量的冷卻形式,再排到室外。它相對於我們傳統的製冷方式,不管是水冷、風冷或者其它的冷源形式,最主要的一點是去壓縮計劃,沒有中間的壓縮機的部分,也就是說浸沒式液冷可以簡單的去理解為全年全部是在自由冷卻的時間段工作的。
通過上面跟大家分析PUE的事情來看,其實我覺得浸沒式液冷主要是技術方向,一種製冷形式,但是結合PUE這個維度來看,我們覺得不光是一個製冷形式這麼簡單,其實它更多的是提出了一個數據中心基礎設施的新概念。因為浸沒式液冷是伺服器完全不需要後端的風扇的,它的最大貢獻不是減少了PUE,提升了能耗,它的最大貢獻是把伺服器的有效功率完全轉化為算力。我們這麼多年來其實沒有一項新技術是打破了原有的技術理念和技術架構做的技術革新,都是在前人的腳步上不斷改善,但是浸沒式液冷的提出打破了原有的技術框架。從PUE數值來看,減少了後端的IT功率那部分的風扇功率,其實對PUE值是沒有幫助的,反而對PUE值是不會讓它好看的,因為分母部分比值減少了,反過來算PUE的時候,浸沒式液冷如果同等的IT功率,同等的基礎電商算它的值肯定要大的,但是它的總體能耗是小的,它把伺服器的功率完全轉化為它的算力。
這個不詳細介紹了,大家看一下就好了,可能是浸沒式液冷一些優缺點。
我們現在在華東投入的數據中心當時做計算的時候預估的PUE可以1.18左右,但是現在可以做到比這個數值低好多。
另外一個項目有一次去日本調研的時候,這個項目是位於日本的青森,是日本的最北端。第一個特點是全年溫差比較小,代表它的氣候比較穩定。第二個特點是冬季降水量非常大,這個項目非常巧妙的把冬季降雪在夏季儲存起來,作為自然冷卻的能源給數據中心供。從數據分析來看,5月份的PUE可以做到1.92,大家可以看到這個數值其實非常不好看,PUE1.92。後面還有一個IT負載只有2%,但是在11月的時候IT負載升到8%以後,它的PUE為1.16了,所以這個項目其實給我們的啟發是利用當地的自然條件和自然措施怎麼能更好的為數據中心的經濟模型做貢獻。
最後一個項目是位於美國的哥登市,這個項目是美國的能源局下面一個節能再利用的超算中心,總共大概1000千瓦一兆的IT運算量。這個項目在2018年的時候是獲得了美國埃士瑞的最佳節能獎。它也是全年嚴重缺水的城市,全年降水量大概在360毫米左右,它當時做的時候是用的液冷技術,靠冷卻塔把這部分的廢熱排到室外。14年投入運營以後到16年覺得這部分的水耗太大了,而且當地的水資源也不足以支撐這個項目的正常運行,並且從美國的電價和水價分布,電價很便宜,差不多相當於4.5元人民幣一度電,但是水費相當貴,一加侖6.5美元,一立方米大概240多加侖,大概是12多美元一噸的水。它在16年被迫做了一項改造,在中間加了一個虹吸式乾冷氣,這個項目既用了液冷部分,也用了乾冷氣部分,一部分降水耗,一部分降電耗。這個項目的BA比較有意思,一套自控系統根據室外的溫度,以及伺服器的內測溫度來調節乾冷氣和液冷的冷卻塔的能耗分配,這個方案是完全從能耗的角度考慮的。還有一部分自控系統把水費、電費的經濟指標輸入裡面,自動調節怎麼產生一個比較好的經濟收益,這個項目也可以給我們帶來一些啟發。我們做數據中心的時候可能會在某一個時段過多的去關注某一項指標,但其實回過頭來看,其實所有的指標都應該是一個綜合的指標。
下面再說一下數據港,作為國內定製的數據中心的龍頭企業,自成立之日起一直於網際網路頭部公司奮戰在中國數位化的第一線,我們在一線城市也有一些資源積累,也會做一些新零售的模式。我們的服務對象就是伺服器,伺服器本身就有客觀的需求,比如送迴風溫度,伺服器內部的環境溫度都有客觀的需求。通過這四個案例,我覺得數據中心也需要有一定的個性,根據當地的氣候條件、地緣環境、政策條件、市政調整,我們要打包成一個綜合的指標來看待數據中心,重新定義數據中心的架構。
以上就是我想跟大家分享的全部內容,謝謝大家!