1.前言
随着IT技术的迅速发展以及企业数据业务需求不断增长的推动,数据中心进入了迅速发展时期。由于IT设备的低利用率和机房基础设施的低效率,致使数据中心的运营成本过快的增长、过高的耗电量和电费支出,使数据中心难堪重负。因此,建设新一代“高效、节能”的数据中心,是当前每个企业所追寻的目标,也是国家要求开展节能减排工作的重要内容。
2.数据中心能耗现状
现代数据中心能耗主要有三大部分:IT设备的能量消耗、制冷系统的能量消耗、供电系统的能量消耗,其能耗占比情况如图1所示。

图1 数据中心能耗构成
行业内广泛应用“能效比”评估数据中心是否节能,能效比包括PUE(Power Usage Effectiveness)和DCIE(Data Center Infrastructure Effectiveness)两个参数指标。
PUE=[TotalFacilityPower(数据中心总能耗)]/[ITEquipmentPower(IT设备总能耗)] (1)
DCIE=1/PUE=[ITEquipmentPower(IT设备总能耗)]/[TotalFacilityPower(数据中心总能耗)]*100% (2)
而数据中心总能耗=IT设备的能耗+制冷系统的能耗+供电系统的能耗,故PUE指标可分解为:
PUE=CLF[CoolingLoadFactor(制冷能效因子)]+PLF[PowerLoadFactor(供电能效因子)]+1 (3)
研究表明,目前我国各类数据中心的PUE值大多在(2.0-2.5)范围内,平均水平约为2.2。在数据中心的规划与设计时,往往IT设备的节能技术是无法掌控的,因此,重点放在降低制冷系统能耗和供电系统能耗。采用高效节能产品,降低能效比PUE值,达到最佳的节能效果。一个设计合理与运营良好的数据中心,能效比应小于1.6(风冷系统制冷方式),才能体现节能与减排目标。
3.制冷系统设计及能耗计算
3.1 数据中心精密空调配置
某一数据中心要求:使用面积为200m2,平均每个机柜功耗3kW。根据GB50174-2008中第4部分“机房位置及设备布置”的要求,按其“4.2信息机房的组成”中提出的机柜配置公式:(2)当电子信息设备尚未确定规格时,按式(4)计算:
A=FN (4)
式中:A-主机房使用面积(m2);F-单个机柜占地面积,3.5∽5.5(m2/台);N-主机房内机柜台数。
取F=4(m2/台),由式(4)计算得:N=A/F=200(m2)÷4(m2/台)=50(台)。
机房专用精密空调的设置满足GB50174-2008A级机房配置要求,采用N+1冗余运行方式配置,精密空调容量核算及配置(采用功率面积法)由式(5)计算。
Q=Q1+Q2(5)
式中:Q-总制冷量;
Q1-设备热负荷(等于设备功耗);
Q2-环境热负荷(Q2=K×S,K-系数,0.1∽0.2kW/m2;S-主机房面积m2)。
环境热负荷系数K取0.15kW/m2,则
Q1=50台×3kW/台=150(kW);
Q2=0.15kW/m2×200m2=30(kW);
Q=180(kW)。
配置台达HED36A0-60风冷式下送风精密空调4台,单台制冷量为61.3kW,采用3+1冗余方式运行。
3.2 制冷系统能耗计算
台达HED36A0-60精密空调主要耗电部件的耗电量统计见表1。

表1 HED36A0-60精密空调主要耗电部件的耗电量
采用HED系列风冷式下送风60kW精密空调制冷系统,总功耗由表1计算可得:
P空调=74.7kW。
制冷能效因子CLF=P空调/Q1=74.7/150=0.498。
4.供电系统设计及能耗计算
4.1 数据中心供电系统配置
数据中心供电系统中的关键设备不间断电源(UPS),按照GB50174-2008A级标准设计2N供电系统,UPS容量计算如下:
UPS容量=(机柜数量×单个机柜功耗)/功率因数 =(50台×3kW/台)/0.8=187.5(kVA)
配置台达GES-DPS200KVAUPS两台,组成完全独立的双总线供电方案,向IT关键设备提供高可靠性、高可用性电源供应。供电系统示意图如图2所示。

图2 供电系统示意图
从以上供电系统设计方案可以看出,供电系统除UPS系统外,还包括ATS切换屏、交流电配电屏、UPS电源输出列头柜及供电连接电缆。
4.2 供电系统能耗计算
UPS系统正常工作时,双母线上的每台UPS平均分配负载(IT设备功耗150kW),即每台UPS负载为75kW。GES-DPS200KVAUPS主机的输出功率因数为0.9,输出有功功率P=200kVA×0.9=180(kW),单台UPS的负载百分比为:75kW/180kW=42%。
图3为台达DPS系列UPS工作效率与负载关系的曲线,负载30%时,效率可达95%,负载50%负载时,可达最高效率96%,有助于数据中心大大降低营运成本。

图3 台达DPS系列UPS工作效率与负载关系曲线
供电能效因子PLF=ATS切换屏损耗+交流配电屏损耗+UPS系统损耗+UPS输出列头柜损耗+供电连接电缆损耗。
其中,ATS切换屏损耗、交流配电屏损耗、UPS输出列头柜损耗、供电连接电缆损耗都非常小,基本上是铜损和接触电阻损耗,一般在0.02左右;DPS200KVA UPS在带载42%时的损耗H=1-η(效率)=1-95.6%=4.4%。
因此,配置台达高效DPS系列UPS构成的供电系统总损耗为:
供电能效因子PLF=0.02+0.044=0.064
5.数据中心能效分析
配置台达InfraSuite解决方案的供电系统和制冷系统的数据中心,PUE指标值由式(3)计算可得:PUE=0.498+0.064=1.562。
PUE值越小,数据中心能效就越高,通过采用台达高效率DPS系列UPS供电系统和采用EC风机及直流轴流风冷凝器的制冷系统,使得数据中心的PUE值降低到1.562,大大地降低了数据中心的能耗支出和运营成本,达到高效数据中心的设计标准,真正地让数据中心“绿”起来。
6.结束语
在“绿色、低碳”高声呼吁的当今时代,数据中心的能耗问题面临着严峻挑战,本文从供电和空调两个系统在保证安全可靠的前提下,结合产品的高效、节能设计技术及应用,以期达到更高效的利用能源,建设节能环保的绿色数据中心。