91亚洲成色精品一区二区三区,精品无人乱码一区二区三区日韩,新生精品污WWW一区二区三区,中文乱码精品一区二区三区视频,天天综合人人精品视频一二三区,天天综合久久一二三区同性,欧美综合久久一二三YY,欧美成在一区二区三区久久综合
當前位置: 首頁 > 電力數字化 > 市場研究

新一代數據中心當中必將出現的那些趨勢

中國IDC圈發(fā)布時間:2020-05-09 11:51:29

  隨著新基建時代的來臨,云計算已然大行其道。阿里,騰訊等巨頭紛紛開始布局更大規(guī)模的新一代云計算數據中心。這將是一種基于高密度,大容量,且前所未見的網絡應用集合體。和傳統數據中心相比,其對于網絡帶寬、端口密度、安全防護以及運維管理等諸多領域都提出了更高的要求。比如,對于新一代云計算數據中心而言,傳統的制冷方式將限制其計算力的發(fā)揮,而液冷將走向前臺;再比如,從流量的角度來說,傳統數據中心屬于簡單的匯聚型流量。但現在,流量將呈現不定向的突發(fā)性,傳統城域網交換機的性能將變得捉襟見肘。那么歸根到底來說,和現有數據中心相比,新一代云計算數據中心將呈現哪些新趨勢呢?

  統一交換將成為必然,萬兆端口即將翻倍

  網絡的建設將是新一代數據中心最直觀的改變。首先,計算網絡,存儲網絡和業(yè)務網絡將同時存在于新一代云計算數據中心當中。其次,傳統的建網方式將使得其建設成本如火箭般上升,同時技術異構的網絡也無法實現統一的虛擬化。對于云計算價值的發(fā)揮將產生嚴重的掣肘作用。在這樣的背景下,Ethernet的統一交換網將成為新一代云計算數據中心組網的首選。

  既然高密度將是新一代云計算數據中心的趨勢,那服務器數量未來必然出現暴增。君不見阿里,騰訊這些巨頭的數據中心動輒數萬臺服務器規(guī)模皆尤嫌不足。同時,單臺服務器核心數量的增長,必然帶動其帶寬消耗同步增長。這對于目前的網卡而言,將產生極大壓力。

  假如某個數據中心擁有2萬臺服務器,收斂比為1:4。那么其基本的萬兆匯聚端口數量將至少需要500個,如果考慮到安全防護以及IP存儲等設備,那么萬兆端口的數量至少還得再增加1.5倍。

  40G/100G接口將迎來高光時刻

  在未來,隨著5G和邊緣計算的落地,數據中心的數據處理能力將是一個天文數字。在這樣的背景下,作為數據交互的關鍵節(jié)點,出口帶寬的壓力也將驟然增大。目前,大部分數據中心的出口帶寬都已經達到了100G以上,并且每年還在以超過100%的速度激增。傳統的10G接口顯然無法滿足這樣的需求。那么,40G/100G接口的普及將迎來高光時刻。

  流量特征更為復雜,需部署專門的交換機

  由于服務器資源動態(tài)調配的特性,在云計算環(huán)境下,流量的特征將比之前更為復雜,也更加難以預測。由此帶來的突發(fā)性也更為明顯。所以未來的網絡,必然要求部署更為專業(yè)的交換機。和傳統交換機相比,這些交換機至少應該具備以下特點:

  1.完全無阻塞交換網

  數據中心級交換機采用CLOS交換網,這是一種完全無阻塞交換架構,從而保證在任何流量特征的環(huán)境下,交換網都是可以實現無阻塞交換。

  2.分布式大容量緩存的數據中心級交換機將成為趨勢

  緩存的價值在傳統PC上早已為人們所熟知。在云計算時代,交換機之間的流量交互將無比巨大。甚至多端口同時向一端口轉發(fā)的幾率也大為增加,突發(fā)的流量會給端口造成巨大壓力。傳統的城域網交換機在出口端的小容量緩存,每板一般不超過64兆。一旦出現流量洪峰,緩存的堵塞丟包將不可避免。一旦如此,勢必形成骨牌效應,從而導致應用層的數據重傳并引起更為嚴重的網絡堵塞。

  數據中心級交換機采用的分布式大緩存架構,其平均每個10G端口的入緩存可達256M,GE端口的緩存達20M,再復雜的流量模型,端口緩存時間最大均可達到200mS以上。只有這樣,才能滿足未來5G時代,大型云計算數據中心的需求。

  “天下賦,半三番”的能耗現狀將被液冷終結

  既然計算力將加速上升,那么數據中心的能耗自然也會水漲船高。信通院云大所的何寶宏博士曾經說過,“再大的風也吹不冷滾燙的‘芯’”。的確,對于未來大型云計算數據中心恐怖的功耗而言,風冷的瓶頸將限制數據中心計算力的提升。同時,由此帶來的耗電量也將讓一線城市難堪重負。

  目前IT設備功耗占到數據中心總體能耗的比例為31%左右,而制冷設備的能耗卻已經超過了40%。也就是說,數據中心的能耗大部分都消耗在了“降溫”領域。這樣的現狀頗有幾分“天下賦,半三番”的感覺。

  在這樣的背景下,液冷技術將走向前臺。經過數年的發(fā)展,今天的液冷技術已經相對成熟。目前,全球各大企業(yè)已經在液冷領域展開了諸多嘗試,市場化產品層出不窮。何寶宏博士認為,“實際應用顯示,浸沒式液冷的優(yōu)勢非常明顯,可以將單體計算密度提升10倍以上,同時IT設備占地面積減少75%以上,即縮減為原來的四分之一。”

  目前浸沒式液冷技術上已經比較成熟了,只是生態(tài)系統還不夠完善。隨著大型云計算數據中心的發(fā)展步入快車道,這種情況勢必改變。生態(tài)建立以后價格必將下跌,而趨勢也將隨之成立。




評論

用戶名:   匿名發(fā)表  
密碼:  
驗證碼:
最新評論0
91亚洲成色精品一区二区三区,精品无人乱码一区二区三区日韩,新生精品污WWW一区二区三区,中文乱码精品一区二区三区视频,天天综合人人精品视频一二三区,天天综合久久一二三区同性,欧美综合久久一二三YY,欧美成在一区二区三区久久综合