新聞中心
news Center
圖1 典型數據中心PUE組成
圖2 數據中心制冷(lěng)系統能耗組成
圖3 數據中心節能服務體系
二、某數據中心基礎設施節能技術應用(yòng)
1、應用(yòng)技術分(fēn)析
本文從配電系統、暖通(tōng)系統、弱電系統三大(dà)專業方向對(duì)某高(gāo)效數據中心基礎設施建設和(hé)運行維護期采用(yòng)的(de)節能技術進行分(fēn)析,以針對(duì)業界其它數據中心節能技術的(de)應用(yòng)提供參考。
1)采用(yòng)了(le)更高(gāo)效的(de)供電架構,如采用(yòng)高(gāo)壓直流的(de)供電模式(其中高(gāo)壓直流設備分(fēn)爲在線式和(hé)離線式),相比于UPS供電,減少了(le)中間過程直流轉交流的(de)電力損耗,而UPS供電效率約85%,高(gāo)壓直流供電效率可(kě)達95%以上,同時(shí)其在技術、投資建設和(hé)應用(yòng)前景上也(yě)都具有較大(dà)優勢。
2)暖通(tōng)系統采用(yòng)了(le)水(shuǐ)冷(lěng)系統架構,實現了(le)制冷(lěng)、預冷(lěng)和(hé)自然冷(lěng)卻3種模式的(de)合理(lǐ)切換,相比傳統的(de)風冷(lěng)系統或單冷(lěng)機水(shuǐ)冷(lěng)系統,不但可(kě)以利用(yòng)自然冷(lěng)源而且水(shuǐ)系統的(de)效率遠(yuǎn)遠(yuǎn)高(gāo)于風系統(水(shuǐ)的(de)比熱(rè)容遠(yuǎn)大(dà)于空氣比熱(rè)容)。
3)冷(lěng)卻水(shuǐ)泵、冷(lěng)凍水(shuǐ)泵、末端空調、冷(lěng)水(shuǐ)機組和(hé)冷(lěng)卻塔等均采用(yòng)了(le)變頻(pín)控制,能夠更好适應末端負荷的(de)增減和(hé)環境溫度變化(huà),變頻(pín)運行相對(duì)定頻(pín)系統提高(gāo)了(le)系統運行效率,避免了(le)冷(lěng)量的(de)浪費。
4)從自然冷(lěng)源最大(dà)化(huà)爲出發點,選用(yòng)了(le)設計逼近度爲2℃的(de)冷(lěng)卻塔,雖然初始投資略大(dà),但後期運行成本較低,綜合較選用(yòng)高(gāo)逼近度的(de)冷(lěng)卻塔節能效果明(míng)顯提高(gāo),并且采用(yòng)串聯運行方案,實際部分(fēn)運行時(shí)間逼近度保持甚至可(kě)低于2℃。
5)冷(lěng)凍水(shuǐ)進入機房(fáng)末端,空調直接參與換熱(rè),就近冷(lěng)卻,免去中間水(shuǐ)氟換熱(rè)的(de)能量損失,同時(shí)爲防止機房(fáng)漏水(shuǐ),采用(yòng)化(huà)工管道的(de)焊接工藝進行機房(fáng)冷(lěng)凍水(shuǐ)管焊接并纏繞漏水(shuǐ)繩。
6)水(shuǐ)處理(lǐ)系統采用(yòng)了(le)全自動運行,通(tōng)過自動檢測裝置控制藥物(wù)投入,有效改善水(shuǐ)質,提高(gāo)水(shuǐ)系統換熱(rè)效率,而其它老舊(jiù)技術需要人(rén)工加藥、人(rén)工水(shuǐ)質檢測、人(rén)工排污,往往會錯過最佳投入時(shí)間,造成系統結垢嚴重,換熱(rè)效率低下(xià)。
7)部署了(le)高(gāo)度智能化(huà)的(de)動環監控和(hé)冷(lěng)水(shuǐ)自控系統,實現動力、環境設施和(hé)電力全量監控,而且能夠在線調整整個(gè)制冷(lěng)系統的(de)運行狀态,根據不同環境變化(huà)形成多(duō)種運行模式,保障整個(gè)系統始終運行在最安全高(gāo)效節能的(de)狀态下(xià)。動态監測數據中心PUE,相對(duì)于非智能化(huà)系統能夠給出高(gāo)能耗設備分(fēn)布,保證運維人(rén)員(yuán)針對(duì)性地開展節能措施。
8)供水(shuǐ)溫度采用(yòng)了(le)溫水(shuǐ)制冷(lěng),采用(yòng)溫水(shuǐ)制冷(lěng)是數據中心非常行之有效的(de)節能手段,不但提高(gāo)了(le)制冷(lěng)系統的(de)運行效率,也(yě)延長(cháng)了(le)自然冷(lěng)源的(de)利用(yòng)時(shí)間,不同冷(lěng)凍水(shuǐ)供水(shuǐ)溫度下(xià)的(de)制冷(lěng)系統COP值如圖4 所示。
圖4 不同冷(lěng)凍水(shuǐ)供水(shuǐ)溫度下(xià)的(de)制冷(lěng)系統COP值
通(tōng)過對(duì)冷(lěng)機冷(lěng)凍水(shuǐ)供水(shuǐ)溫度在7℃、14℃以及19℃梯度變化(huà)下(xià)的(de)冷(lěng)機COP(制冷(lěng)量/功耗)進行比較可(kě)知,随著(zhe)冷(lěng)凍水(shuǐ)供水(shuǐ)溫度的(de)提高(gāo),冷(lěng)機的(de)制冷(lěng)系數相應升高(gāo)。冷(lěng)凍水(shuǐ)供水(shuǐ)溫度由14℃逐步升高(gāo)到19℃,在制冷(lěng)量爲3000kW時(shí),壓縮機能耗減少67kW,COP提高(gāo)26%。而且一般數據中心設計之初雖設計了(le)制冷(lěng)、預冷(lěng)、自然冷(lěng)卻3種模式可(kě)切換運行的(de)水(shuǐ)冷(lěng)系統架構,但實際運行過程中由于冷(lěng)凍水(shuǐ)供水(shuǐ)溫度低于15℃,導緻自然冷(lěng)卻模式無法正常運行。本數據中心采用(yòng)溫水(shuǐ)制冷(lěng)(冷(lěng)凍水(shuǐ)供水(shuǐ)溫度高(gāo)于18℃),可(kě)以采用(yòng)多(duō)種運行模式,見表1。年自然冷(lěng)源利用(yòng)時(shí)長(cháng)大(dà)于75%。
表1 某數據中心運行模式切換表
圖5 頂置式空調示意
本數據中心D1模組采用(yòng)頂置式空調,單個(gè)機房(fáng)部署數量16套。D2模組采用(yòng)列間空調,同樣IT負載下(xià),單個(gè)機房(fáng)部署數量40台,每台風機總功率2.2kW。以平均每台列間空調實際耗電功率1kW計算(suàn),采用(yòng)頂置式空調,單個(gè)機房(fáng)年可(kě)節省電量350000kWh。D1模組2023年年均PUE較D2模組下(xià)降了(le)0.019,壓降率11.37%。
2、應用(yòng)效果展示
某數據中心基礎設施建設和(hé)運行維護過程中通(tōng)過采用(yòng)以上節能技術手段,2023年年均PUE爲1.157,見表2,較本地區(qū)新建數據中心(本數據中心投産期2016年)PUE不高(gāo)于1.4的(de)要求,PUE壓降了(le)0.243。年節省電量22500000kWh,少消耗标準煤9000000kg。
表2 某數據中心2023年PUE表
三、結束語
近年來(lái)伴随互聯網等行業的(de)興起,數據中心迅猛發展。由于技術水(shuǐ)平的(de)上升,服務器密度也(yě)在逐年增加,同時(shí)體積變得(de)越來(lái)越小,緻使數據中心産熱(rè)量日益增多(duō)。按照(zhào)現有行業能耗指标測算(suàn)方法,數據中心産業一直被界定爲高(gāo)能耗産業,并受到能耗指标審批方面的(de)嚴格限制,甚至有人(rén)稱其爲“不冒煙(yān)的(de)鋼廠”。所以如何建設好機房(fáng)、降低管理(lǐ)和(hé)運營成本、提高(gāo)運維效率、控制機房(fáng)能耗,成爲管理(lǐ)者日益關注的(de)重點。本文就此給出了(le)合理(lǐ)化(huà)建議(yì)。
1)構建以先進的(de)節能服務理(lǐ)念、節能高(gāo)效的(de)基礎設施系統、強大(dà)的(de)運維保障工具、科學的(de)運維組織架構和(hé)關鍵的(de)節能運維技術爲主要組成部分(fēn)的(de)節能服務體系,有效保障項目的(de)PUE壓降。
2)數據中心基礎設施建設和(hé)運行維護期在配電系統、暖通(tōng)系統、弱電系統三大(dà)專業方向關注節能。如采用(yòng)高(gāo)壓直流的(de)供電模式和(hé)水(shuǐ)冷(lěng)系統架構、部署動環監控和(hé)冷(lěng)水(shuǐ)自控系統、各制冷(lěng)系統設備采用(yòng)變頻(pín)控制、在安全情況下(xià)可(kě)考慮水(shuǐ)進機房(fáng)等。
免責聲明(míng)
除非特别說明(míng),本站所載内容來(lái)源于互聯網、微信公衆号等公開媒體渠道,目的(de)在于傳遞更多(duō)信息,不确保文章(zhāng)的(de)準确性,不代表本站觀點,僅供參考、交流之目的(de)。轉載的(de)稿件版權歸原作者或機構所有,如有侵犯版權請告知,我們将在24小時(shí)内删除!