天天看點

Google資料中心PUE降低的秘密

Google公布的自己資料中心的文檔更像是一次炫耀,大篇幅的展示了極低的PUE,而對設計細節忽略不提。盡管如此,我們還可以從其中發現有價值的資訊。好,讓我們開始。

盡管距離Facebook公開其資料中心設計藍圖已經過去了一年半,但Google公布的資料中心設計還是值得研究。不可否認,Google和亞馬遜依然是地球上擁有最先進的資料中心的兩個公司,包括Facebook伺服器實驗室系統工程經理Amir Michael、Prineville資料中心總經理Ken Patchett在内的許多工程師都來自Google。上個月,我們第一次了解到Google資料中心内部的景象,不過這些照片并不是Google最先進的資料中心,其中所包含的資訊量也相當有限。同樣的,Google公布的自己資料中心的文檔更像是一次炫耀,大篇幅的展示了極低的PUE,而對設計細節忽略不提。盡管如此,我們還可以從其中發現有價值的資訊。

當面臨網際網路應用伺服器爆炸式增長的局面,我們将精力放在如何減少能源使用上。大多數資料中心就像給伺服器供電一樣,給非計算用裝置無限制的供電(即日常管理、制冷等)。在Google,我們将傳統資料中心的制冷用電比例降低到13%。這樣,大部分的電能用于伺服器,這些伺服器将為搜尋及其它産品提供支援。我們對用電量進行測量,不斷的朝目标行進——提供更多服務,減少電量浪費。

如何降低PUE——Google的5點建議

不管你營運的是小型資料中心還是大型的資料中心,你都可以采用一些簡單的設計來提升效率,降低成本并減少對環境的影響。

1、測量PUE

沒有測量就沒有管理,采用更綜合的方法測量PUE。

我們的計算基于Google在全球所有的資料中心的性能,不僅僅是我們最新的或最好的資料中心。同時,統計資料貫穿全年,并不僅統計涼爽的季節。

不僅如此,我們還将所有的日常産生的耗能全部進算在其中。當然,隻要采用更寬松的Green Grid v2标準(Green Grid's PUE measurement standards。Green Grid是一個非盈利的企業團隊,成員包括 AMD、APC、Cisco、Dell、Emerson、Fujitsu、Fujitsu Siemens、HP、IBM、Intel、微軟和Sun等供應商以及ADP、Allstate、BT、Enterprise、Facebook和Fed Ex Services等使用者。),就可以得出更低PUE值。事實上,如果使用業界通常的解釋,我們效率最高的資料中心可以不誇張的達到PUE 1.06。然而,我們堅持使用更高的标準,因為我們相信這可以有助于更好的統計和優化我們的用電。總之,我們公布的綜合PUE為1.13,覆寫全球所有的資料中心,并貫穿全年,以及所有的日常用電。

2、管理氣流

氣流管理對資料中心營運十分重要。通過恰當的設計盡量減少熱空氣和冷空氣混合。然後,確定熱空氣被密封。我們發現一些很小的分析工具能帶來巨大的回報。比如,通過電腦流體力學(CFD)建立氣流模型可以幫助你快速的描繪和優化氣流,這樣你就不用對電腦房大規模重組。

控制裝置的溫度

為了在持續節能的前提下保持裝置最佳狀态,溫度管理、氣流管理以及裝置管理盡量保持簡單,提高成本效益比。

将恒溫器設定提高到80華氏度(約等于26.7攝氏度)

讓資料中心節能最簡單的辦法就是提高溫度,根據專家的建議以及裝置制造商的說明,資料中心可以在80華氏度以上安全的運作。

建立熱力模型

我們使用熱力模型來定位“熱點”,并能更好的了解氣流的運作。在資料中心設計階段,通過實體組合的方式讓裝置溫度更加平均。在這之後,我可以移動計算機機房空調來減少熱點,并降低其周邊的溫度,最終減少空調必須運作的時間。

我們找到低成本的方式管理氣流

為了減少制冷成本,我們要防止機架後端排到熱管的熱空氣與機架前端環境的冷空氣混合。在我們那些巨大的資料中心裡,我們使用了适當的導管和附屬裝置。此外,在較小的資料中心中,我們采用适當簡單的散熱方式。請看執行個體:

使用空的面闆(或者平坦材料)封閉機架上空閑的機位,防止熱空氣滲入冷空氣。

懸挂塑膠窗簾(與在冰箱中使用的材質相似)防止冷空氣跑掉。

将高溫的部件或區域(如供電單元)用塑膠窗簾密封起來

3、調整恒溫器

讓資料中心保持在70華氏度(約等于21.1攝氏度)簡直是生活在童話中。事實上,所有的裝置制造商都允許你将通道溫度提升到80華氏度或更高。如果讓你的資料中心效率更高(我們強烈推薦),讓它運作在更高的溫度就能在更多天裡實作“免費制冷”(通過室外的自然空氣進行制冷)并節約更多的電能。

4、使用免費的制冷

通常冷水機組都會用在資料中心的制冷裝置中,你可以發現這就是節省電能的巨大機會。利用“免費制冷”消除高溫就能避免使用冷水機組。這包括使用周邊低溫的空氣、蒸發器以及巨大的熱容裝置。當然,有許多方法讓你使用“免費制冷”,水和空氣都被證明可以使用的資源。

用水替代冷水機組

電力在資料中心中最終會轉換成熱量。大部分資料中心使用冷水機組或空調進行降溫,這将占到日常用電中的30-70%。在Google資料中心,我們經常使用水這種高能效的方式來代替。

使用水來圍堵熱空氣以及對裝置降溫

我們為機架設計并定制了制冷系統,我們叫它“熱屋”(Hot Huts),因為它用作容納從伺服器排出的熱空氣的臨時房間,房間與資料中心其餘地闆是隔離的。每個熱屋的頂部都裝有風扇,将伺服器排出的熱空氣吸入水冷器。冷卻後的空氣離開熱屋回到資料中心的環境中,伺服器可以将這些冷空氣抽入幫助降溫,空氣完成了一個循環。

利用蒸發器制冷

蒸發是非常強大的工具。在我們人體上,當外界溫度高過身體的溫度時,蒸發可以幫助我們保持體溫。我們的冷卻塔和人體出汗的工作原理如出一轍。熱水從資料中心輸送到冷卻塔,水從上到下流過快速蒸發器,一部分水轉變成水蒸氣。風扇将這些水蒸氣向上推動,這一過程将帶走剩餘的熱量,然後将變冷的水輸送回資料中心。

利用海水進行自然冷卻

蒸發水并不是唯一的免費冷卻方式。我們在芬蘭哈米納港的資料中心使用海水降溫,沒有使用冷卻裝置。資料中心地處芬蘭灣,氣候寒冷。冷卻系統将寒冷的海水輸送到資料中心,熱量通過交換器傳送給海水,海水最終流回海灣。通過這種方法,可以給我們提供全年的冷卻,而根本不需要任何冷卻裝置。

節約并循環用水

為了更節約用水,我們在兩個資料中心實作了100%循環用水,并在1/3的資料中心中通過收集雨水進行制冷。這個方法很簡單,替代用于冷卻的飲用水,而使用不能飲用的水源,通過清潔就可以用于冷卻了。

我們通過各種方式使用循環水。在道格拉斯資料中心我們利用城市廢水,在比利時資料中使用工業廢水,通過盛有幹淨沙子的巨大的水槽過濾水中的微小粒子,水會變得幹淨(盡管并不适合飲用)。不過,循環用水的方式并不總是很劃算,我們對找到合适的方法來支撐大部分循環用水還是持樂觀态度。

5、優化電源布局

你可以通過減少電流轉換的次數來減少分布式電源帶來的電能損耗。你必須進行電流轉換,但要確定使用特定的轉換裝置和分布式電源單元(PDU)。資料中心中分布式電源最大的能量損失之一來自不間斷電源(UPS),是以選擇高效率的UPS十分重要。最後,盡量讓高電壓接近電源,這可以減少能量損失。

定制高效的伺服器

Google的伺服器始終保持着高效率,它是我們資料中心的核心,并且經過了極端節能設計,通過最小化電能損失以及移除不必要的元件來實作。

優化電源路徑

一個典型的伺服器最多将浪費1/3的電能,隻有電能用于伺服器的計算才能發揮真正的價值。伺服器浪費的大部分電能是在電源部分,電源需要将标準的交流電轉換成低電壓的直流電。這一過程将損失大量電能,同時晶片也将完成進一步電源轉換工作。這種設計可以降低初始成本,但最終将在電力轉換的過程中花費大量的成本。

Google的伺服器則不同。從2001年開始,我們一直在改進設計不斷提高效率。多年之後,我們的供電效率已經超過了“氣候保護計算倡議組織”的“金牌”标準(Climate Saver Computing Initiative,簡稱CSCI),事實上,我們與“氣候保護計算倡議組織”、Intel以及世界自然基金會(WWF)共同努力提升工業電源效率。同時,我們使用了更高效率的調壓子產品,確定更多的電能輸送到各個元件。我們在機架後放置電池直接向伺服器供電,這樣就可以省去兩次交流/直流變換過程。我們估算,一台伺服器一年時間就可以節省500kWh,相當于典型的伺服器能耗的25%。

定制自己的伺服器 隻保留必須的元件

對于硬體,我們隻保留那些對我們的應用有幫助的部分。我們去掉那些外圍的部件和顯示卡。我們還優化伺服器和機架以适應最小功率的風扇,在保持伺服器冷卻的前提下,盡量降低風扇的轉速。

本文轉自d1net(轉載)

繼續閱讀