數據中心溫度辯證法:遠近高低各不同
盡管數據中心權威并未直接表達過類似觀點,但是業界對于這些關鍵性設備流行的做法就是“越涼越好”。然而一些領先的服務器制造商和一些數據中心效能專家則認為在無需犧牲正常運行時間的前提下,數據中心能夠在比目前更高的溫度下運行,能夠節省大量由散熱和二氧化碳排放所產生的相關費用。一家服務器制造商近日還宣布其服務器組群能夠在進氣溫度為華氏104度(約40攝氏度)的環境下運行。
之所以要提升溫度范圍,是因為散熱設施是一個能耗大戶。一年365天24小時不間斷運行的系統需要消耗大量的電能來創造***的計算環境,其溫度范圍在華氏55到65度之間擺動(12.8到18.3攝氏度之間),而當前ASHRAE(美國采暖、制冷與空調工程師協會)推薦的熱度范圍18到27攝氏度之間。
為了實現效能,一些有影響的終端用戶在較高溫度下運行數據中心并且建議其同行效仿。但是這個過程并未像在家中提升恒溫器那么簡單,以下是摘錄了一些關鍵的論點和想法。
觀點1:提升服務器進氣溫度會帶來可觀的能源節省
支持方:著名的硬件制造商和數據中心運營者Sun微系統公司估計每提升一度進氣溫度能夠節省大約4%能耗成本。更高的溫度設置意味著風冷或者水冷節約設備中更多自由冷卻時間的可能,這條信息對于位于加州圣何塞市的公司更具吸引力,該地區一年中有 82%的時間溫度低于華氏70度(包含),受惠于當地的天氣特征,每年能夠帶來六位數能源支出的節省。(利用室外新風來制冷,或通過載冷劑將室外空氣中的冷量引入室內的方法叫自由冷卻這種方式一般適用于室外溫度較低時。)
反對方:散熱設施有著專門的設計設定,我們如何知道提升服務器進氣溫度不會導致額外的,不必要的諸如服務器散熱扇、泵或者壓縮機所產生的能耗?自由冷卻對于新數據中心而言倒是非常棒的想法,但是對于當前的數據中心而言卻是昂貴的建議。自由冷卻的引入需要整個散熱設施的重新工程化,高昂的價格以及不必要的復雜度則是阻力。熱量相關設備故障或者停工費用會抵消由提升服務器進氣溫度而帶來能源成本節省。
觀點2:提升服務器進氣溫度使得可靠性,復原以及設備維修保養復雜化
支持方:進氣以及廢氣在數據中心內部經常是混合在一起的。保持較低溫度來抵消這種混合并且使得服務器進氣溫度控制在ASHRAE推薦的范圍之內。提升溫度使得現有熱區更加惡化。低溫能夠為空間提供涼爽溫度層,在散熱系統失效之后能夠體現出優勢,工作人員可以有著更多的時間來診斷修復散熱故障,必要的話也可以適時地關閉設備。從存儲到網絡的每一個設備如何在華氏104度服務器中體現出可靠性?所有的保證書都在華氏104度中有效?
反對方:提升數據中心溫度是效能計劃的一部分。溫度的提升必須遵從***氣流管理范例:使用備用面板、密封電纜中斷器,消除在活動地板下的電纜障礙,把一些空氣密封裝置填滿。上述措施能夠有效地削減冷熱氣流的混合并且允許安全、可操作性的溫度上升。
華氏104度服務器是鼓勵數據中心運營人員討論和調查的極端案例,在研究之后,曾經在華氏62度運行的設備就可以在華氏70度的溫度下運行,而這種改變將會極大地提升能效,而無須損失可用性以及設備安全保證。
觀點3:服務器并非人們所想的那樣脆弱和敏感。去年的研究強調了現代硬件的彈性。
支持方:自2001年11月至2008年6月份,微軟位于西北太平洋潮濕帳篷中的服務器一直處于無故障運行狀態。采用空氣側的節能裝置,英特爾以450個高密度服務器為準,溫度高達華氏92度并且適度范圍在4到9%之間,試驗期間服務器故障率屢高于英特爾的企業及設備。數據中心推薦溫度上限從之前的華氏77度上升至華氏80.6度。
反對方:高溫,超時運行會影響到服務器的性能。隨著溫度的上升,服務器風扇響應速度會得到相應的增加,而這會削減設備的使用壽命。對于所有的商業化設備而言,英特爾和微軟的數據中心研究并不具備普遍相關性。硬件壽命減短,更新速度越來越快。
結論:
提升數據中心溫度的運動在增加,但是在所有的疑慮被打消之前依然面臨著諸多反對方。考慮到可靠性和可用性位于IT職業人性能計劃的頂端,到目前為止大多數人選擇站在謹慎的錯誤一方:不惜任何代價保持較低的溫度。盡管高溫和可靠性并非絕對相互排斥,依然有辦法在保護數據中心投資的同時增加設備的能效性。
溫度是和空氣流管理是分不開的,數據中心職業人士必須理解空氣如何流通,進入并且通過服務器機架。計算流體動力學會有助于分析并且繪制數據中心空氣流,但是由于制冷設備并不一直按照規格表現并且輸入的一些數據可能會丟失一些重要障礙,實時監測和調整是保證計算流體動力學數據和計算精確性的關鍵要素。
隨著空氣流問題的解決,用戶可以聚焦于尋找自己的“***點”,在商業要求和能效提升中***的溫度設定。尋找著一個切合點需要前攝的度量和分析,盡管這需要付出很多,但是由此帶來的結合企業利益和責任于一體能耗支出、碳排放的削減也表明付出的努力是很值得的。
【編輯推薦】