|
|||||||||||||||||||
|
|||||||||||||||||||
PUE降到1不是神話 Google電信機房的PUE可達1.15,為什麼台灣不行? 台灣高科技Fab晶圓廠高發熱機台的高顯熱特性,很像電信機房,根據李魁鵬博士調查,以台灣40個電信機房抽樣,平均PUE約座落於1.91,他補充,根據美國柏克萊大學統計,台灣PUE已有顯著提升(平均1.64)。 PUE意指資料中心的總電能消耗與IT設備本身的電能消耗之比,李魁鵬博士認為,PUE為動態指標,若能結合能源計算,估算出能耗效率,進行各種情境的設計與實際運轉,是非常有助於降低PUE的程序。 散熱規劃:液態冷媒效果比風好 李魁鵬博士表示,利用液態冷媒的冷卻效果比風(空氣)還好,且效果要好上7~8倍,但重點是避免冷熱的錯失(Missing)。舉例來說,風的出路是尋求較短的路徑,當熱風出來而冷風進去,若造成Missing,將導致空調系統需再降低溫度,以攝氏1度的空調系統調整將差3%的耗能來估算,降低攝氏5度電源的耗能將差15%,甚至還會出現溫度不均勻的狀況。 李魁鵬博士補充,利用液態冷媒,冷卻性質比水好,但需要考量冷卻水塔是否可順利送到終繼站,而不需要壓縮機,因為壓縮機的耗能又佔了空調系統的50% ,而其中風扇的耗能佔空調系統的20%,至於幫浦,目前也有機會拿掉,但已是非常先進的技術! 機房規劃要提升效率,除了IT產業需要更高效的電源和改良的電源系統管理方式,還必須考慮更高效的功率傳輸系統,其中,冷卻系統的效率必須最佳化,至於其他環節的效率,則完全仰賴工程師對供電電源和伺服器進行的設計和最佳化。 用RCI、RTI、SHI檢討氣流分布 目前台灣普遍面臨機房散熱的障礙,主要是冷熱通道的接合與冷源未100%送到目的地,才會導致冷卻不均勻的狀況,若冷熱能皆可有效接合,將有機會達到零能源消耗。舉例來說,電腦的中央處理器(CPU)熱度約攝氏80~90度,可用來燒熱水,或用於溫水泳池等,這樣的創新應用是可能達到的目標。 在典型的美國資料中心內,提升電力傳輸鏈的效率有2個主要障礙:鏈路中電源轉換器的數目以及傳輸損耗,舉例來說,鏈路中有很多電源轉換器,美國國家實驗室就曾指出,每當從AC轉換到DC,或從DC轉換至AC,就會產生損耗,這種損耗被轉換為熱,而這些熱必須散出,PDU轉換器增加了損耗,PSU也一樣,PSU是另1個AC/DC轉換器;另1個障礙是傳輸損耗,相對低的電壓意味著系統具有相對高的電,電流大並非不好,因為傳輸損耗和電流的平方成正比。 此外,進風與出風會隨著設備更新,因此,如有設備汰換與更新時,應進行新的機房散熱規劃與管理,考慮設備對流場的影響。李魁鵬博士建議,可用RCI與RTI以及SHI檢討氣流分布,RCI指數可以80作為評估標準。
|
|||||||||||||||||||||||||||||||||||||||||||