網路城邦
資策會 科技化服務(ITES)
市長:
Champion
副市長:
加入本城市
|
推薦本城市
|
加入我的最愛
|
訂閱最新文章
udn
/
城市
/
資訊科技
/
網路分享
/
【資策會 科技化服務(ITES)】城市
/討論區/
你還沒有登入喔(
馬上登入
/
加入會員
)
本城市首頁
討論區
精華區
投票區
影像館
推薦連結
公告區
訪客簿
市政中心
(0)
討論區
/
機房管理
字體:
小
中
大
【轉載】Digitimes:機房節能未達止境 降低PUE仍待努力
瀏覽
1,427
|回應
0
|
推薦
0
Champion
等級:6
留言
|
加入好友
http://www.digitimes.com.tw/tw/dt/n/shwnws.asp?CnlID=13&cat=150&id=0000378513_J7B63ZJC00KCSI4YOD46W&ct=1
機房節能未達止境 降低PUE仍待努力
2014/05/19-DIGITIMES企劃
今時今日,不論已開發或開發中國家,都無可避免面臨氣候變遷的嚴峻考驗,為了克服隨之而來的自然、生態、經濟、社會、健康等諸多挑戰,也讓節能減碳成為至高無上的顯學;在此前提下,機房管理的先決任務,就在於節能!
根據美國能源部的數據顯示,資料中心(Data Center)的能耗,為同等面積辦公室的100倍之多。單就台灣而論,根據經濟部能源局所發布的「非生產性質行業能源查核年報」,電信機房的單位面積年用電量密度,始終高懸各大應用場域的第一位,動輒達到900度/平方公尺之上,超越量販店或百貨公司約300度/平方公尺甚多。
放大放大圖片
採取伺服器虛擬化及整併,固然是降低PUE、打造綠色機房的重要步驟,但資料中心節能大計,絕不僅止於此單一措施。來源:liquidtechnology.net
事實上,經由電信或IT機房所產生的全球二氧化碳排放量,現已衝高至8.6億頓以上,而伴隨科技應用日新月異,全球各國對於運算、資料儲存、網路通信的需求仍持續攀升,儘管有識之士已意識到此一問題的嚴重性,近幾年來致力提高IT設備、機房基礎設施,乃至資料中心的能源使用效率,但預估至2020年時,全球IT相關碳排放量仍將達15.4億噸,幾乎較當前水準翻了一倍。
因此,綠色資料中心已成為眾所矚目的熱門議題,以此為主題的研討會場次,近幾年來明顯激增,且不論議程或講師安排重疊與否,場場都猶如吸票機,吸引廣大IT從業人員聆聽取經。
說到這裡,難免有企業或機構備感委屈,直言其並非漠視節能減碳的重要性,也深知一昧放任用電量的增長,亦將導致營運成本飆高,簡直百害而無一利。
但不可否認,資料中心乃是企業營運的命脈,隨著使用者人數增多、應用服務型態趨於複雜,再加上資料量不斷擴增,分分秒秒都得仰賴資料中心之恆常運作,因此盱衡企業營運發展的永續性、機房能耗的節約,自認已權衡輕重採取必要措施,大舉採用高密度伺服器、甚至虛擬主機,冀望衝高每瓦運算效能,藉以抑制機房能耗的飆升。
但企業或機構對於機房節能的努力,若僅止於上述舉措,而罔顧其餘更應關切的面向,那麼無異是杯水車薪、於事無補。當企業致力提高每瓦運算效能,反倒可能見獵心喜,因而在相同機房或機櫃空間之內,部署更多伺服器,導致機房整體的電力及空調使用需求攀升,使得用電量不減反增,亦可能將基礎設備推向承載負荷的飽和點,危及現有IT設備的穩定性,更縮限了隨業務成長部署新設備的空間。
為何追求運算密度、每瓦效能的提升,未必能使機房能耗同步降低?如果仔細檢視能源使用效率(Power Usage Effectiveness;PUE)、資料中心基礎效率(Data Center Infrastructure Efficiency;DCiE)等指標的內涵,理應不難參透箇中玄機。
所謂PUE,乃是經由Green Grid提出、並為ASHRAE證明過的實用性指標,其計算公式為「機房總耗電量」除以「IT設備總耗電量」;此處所指的IT設備,不僅含括了運算、儲存、網路通訊等主要應用領域,也一併涵蓋KVM切換器等輔助設備。至於DCiE,基本上就是PUE倒數,兩者可謂殊途同歸,此處則不再對此細究。
至於機房總耗電量,理所當然囊括上述一干IT設備的能耗,除此之外,舉凡不斷電系統(UPS)、發電機、電動閥、開關、蓄電池等電力相關設備(連同配電損失),諸如冰水機組、水泵、直膨箱型冷氣機CRAC、風機、冷卻水塔等攸關冷卻的相關設備,乃至於機房內部的照明,這些琳瑯滿目裝置所產生的功耗,全都得算在機房總耗電量之列。
教育部過去初步量測部分國立學校機房的PUE平均值,大抵落在2.99水準,若以此為論述基準,則意謂1台需要耗電500W的伺服器,伴隨其持續運轉,則前述眾多基礎設施就得它消耗近995W電力,如果某機房內有20台伺服器,那麼總耗電量即為29.9kW。
承前例,用戶若決定採行高密度伺服器與虛擬主機,假設可使單台伺服器平均功耗需求降至350W,看似大減了3成能耗,但也代表原有的機房或機櫃空間內,也會增加配置更多主機,好讓用戶更有效支應業務推展需求,縱使用戶以不擴增現有基礎設施容量為前提,將伺服器數量小增至28台,則此部分的總耗電量為9.8kW,連帶迫使基礎設施消耗19.51kW電力,此時粗估機房總耗電量為29.3kW,與上述數值相較,可說原地踏步。
由此可見,降至運算系統的單位能耗,固然是邁向機房節能的必要起點,但若未同步施展更多必要措施,還任由其他諸多「不節能」因子持續存在,那麼PUE並不會隨之下滑,耗電情況也一如往常。
按照Green Grid所頒布的標準,PUE小於1.25即是「白金級」,介於1.25~1.43是「黃金級」,介於1.43~1.67是「銀級」,介於1.67~2是「銅級」,介於2~2.5只能算是「一般」,超過2.5就判定為「不節能」;如果用戶的機房PUE達到2.99水準,象徵其能源使用效率嚴重不及格,亟需改善的環節所在多有,怎可能自以為是地冀望透過屈屈的有限作為,即能換取可觀的節能成效?
IT設備虛擬化與整併 僅是節能第一步
根據經濟部能源局所發布的「電信網路機房節能應用技術手冊」,台灣資訊機房PUE平均實際量測結果約為1.9以上,若取其中採用300噸以上之中央空調冰水主機系統資訊機房,雖然還未到LEED的基本申請門檻(PUE值1.52以下),但至少不像前述2.99數值如此駭人聽聞,不過無論如何,一定有其改善空間。
PUE數值之所以會居高不下,在電信網路機房節能應用技術手冊之中,也歸納了多項常見因素。首先是IT設備無節能管理、無虛擬化與整併技術,造成負載常定之高耗能現象;第二是回風設計主要採無風管之直接回風,造成氣流短循環,氣流無法有效率地冷卻機櫃;第三是回風口與出風口太接近,造成氣流短循環,氣流無法有效率地冷卻機櫃。
第四是無冷熱通道之設計及短循環之回風,造成機房溫度場混亂,以致於造成空調箱之溫控感測點不易設置,空調箱及冰機控制失序,頻繁切換,並導致系統不穩定運轉及容易故障之風險;第五是冰機超量設計之現象,冰水進出口溫差小,起停頻繁;第六是使用濕盤管及低溫冰水,造成除濕過度及再加濕之能源浪費。
第七是冰水主機老舊及過大設計造成低效率運轉;第八是配線系統雜亂造成氣流受阻、系統更新不易;第九是不適當之高架地板開口造成氣流分配不均勻、氣流洩漏嚴重;第十是UPS及配電系統過大設計,造成電力系統低負載、低效率之運轉。
當然,可能導致PUE高檔盤旋的潛在原因,容或不僅止於前述10項,但這10個常見現象,一旦不加以解決,確實會讓該資訊機房與「綠色」二字相距甚遠,如何縮短其間差異、進而朝向Green Grid所定義的銀級、黃金級甚或白金級前進?
企業機構所需做足的基本功課,著實還有不少;最起碼,本文描述有企業採用高密度伺服器或虛擬主機,充其量只解決了10大難題當中的第一項,剩下的9項事,亦應通盤詳加檢視、謀求因應改善之道。
DIGITIMES中文網 原文網址: 機房節能未達止境 降低PUE仍待努力 http://www.digitimes.com.tw/tw/dt/n/shwnws.asp?CnlID=13&cat=150&id=0000378513_J7B63ZJC00KCSI4YOD46W&ct=1#ixzz32ExVLZWO
引用網址:https://city.udn.com/forum/trackback.jsp?no=54653&aid=5097661