数据中心节能方案分析

2012-09-21 09:46中国电子工程设计院王铁楠
智能建筑与智慧城市 2012年3期
关键词:机房数据中心空调

文|中国电子工程设计院 王铁楠

随着数据中心数量不断的增多、规模日趋庞大,其对能源尤其是电能的需求缺口问题也日益显现出来。如何更有效地降低能耗成为数据中心从业人员最为关心的一个问题,绿色数据中心的概念也是在这样的背景下被人们所重视起来。

综合来说,我们可以从建筑节能、运营管理、能源效率等方面来衡量一个数据中心是否为“绿色”,而要想实现“绿色数据中心”就必须从整体的设计规划、工艺布局、暖通空调、电气工程等方面综合考虑。

1 冷热通道隔离技术

经过多年的实践和理论证明,在一个设计不合理的数据中心中,60%的空调机冷送风由于气流组织的不合理而被浪费。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象,这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合,从而提高了设备的进风温度;空调冷送风的浪费现象指的是空调机的冷送风并未进入设备,并未对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,最简单的方式就是机柜面对面摆放,形成冷风通道,背靠背摆放形成热风通道,这样会有效地降低冷热空气混流,提高空调使用效率。如图1所示。

图1 冷热通道完全隔离

隔离冷通道或隔离热通道哪种方式更好呢?

这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高,以此来提高空调的制冷效率,区别主要是可扩展性、散热管理和工作环境的适宜性。

隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题。正因为这样扩大冷通道的空间,隔离热通道相比于隔离冷通道有着更多的空调冗余性能,多出的热通道空间将会在空调系统出现故障时,能够给予更多的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风出风温度可以达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这增加了数据中心工作人员的舒适度和减少了数据中心其他设备的使用寿命。

综上所述,虽然这两种方法都可以提高空调使用效率,但是相比较起来,隔离热通道比隔离冷通道的效率更高、适用性更好。

2 冷源方案的比较

统计数据表明,数据中心的制冷系统占机房总功耗的40%左右。机房中的制冷主要是由机房空调负责,所以降低机房空调的耗电量可以有效的降低机房的PUE值。数据中心中较为常用的节能制冷系统有以下四种:

(1)水冷冷冻水机组+自由冷却系统

本方案组成设备包含:水冷冷水机组、板式换热器、冷却水泵、冷却塔、冷冻水泵、定压补水装置、加药装置、蓄冷水罐、末端空调机组等组成。整个系统由冷冻水系统和冷却水系统组成,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

(2)风冷冷冻水机组+自由冷却系统

本方案组成设备包含:风冷冷水机组、干盘管、冷冻水泵、定压补水装置、加药装置、蓄冷水罐、末端空调机组等组成。本系统自由冷却用的干盘管可集成于风冷冷水机组内,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

(3)自带冷源式风冷空调机组+自由冷却

自带冷源式风冷空调机组系统属于分散式空调系统,空调机组由室内机、室外机、干盘管组成。室外机内置压缩机,干盘管集中布置于室外,母管连接由水泵分配至各室内空调机,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

(4)模块末端全空气空调机组水冷冷冻水

本方案组成设备包含:水冷冷水机组、冷却水泵、冷却塔、冷冻水泵、定压补水装置、加药装置、蓄冷水罐、全空气循环风机组等组成。过渡季及冬季直接把室外冷空气经全空气循环风机组处理后送至机房内,以减少冷源部分的能耗,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。

数据中心到底使用哪种制冷系统,需要根据项目所在地的各项条件综合考虑。在我国长江以北地区,如果有条件建议采用水冷冷冻水机组+自由冷却系统的方式设计制冷系统,这样在冬季气温7℃~12℃时可以采用预冷的方式,使用部分冷冻机组。在室外温度小于7℃时,可以不启动冷冻水机组,完全用自由冷却系统对机房降温,大大减少了能源的消耗。

3 采用变频电机

空调系统的制冷能力和环境密切相关,夏天室外温度越高,制冷能力越低,因此大型数据中心空调系统的制冷量都是按最差(夏天最热)工况设计的(空调的制冷量一般要比其在理想工况下的额定值低,这时建筑物本身不但不散热,反而吸热),这样,全年绝大部分时间空调系统运行在负荷不饱满状态。另外,大型数据中心的IT负荷从零到满载也需要相当长的时间,一般也在一到三年之间。还有,IT负载的能耗和网络访问量或运行状态相关,根据其应用的特点,每天24小时的能耗都在变化,一年365天的能耗也都在变化。比如,游戏服务器在早上的负载和能耗都比较低,但在晚上就比较高;视频服务器在遇到重大事件时的负载和能耗就比较高。

因此,在水冷系统中所有电机采用变频系统,这样可以节约大量的能量,其增加的投资一般在一年内节省的电费中就可以收回(基本满负荷情况下)。对于风机和水泵,输入功率和这些设备的转速的三次方成正比。例如,如果风机或水泵的转速为正常转速的50%,仅需要同一设备运行在100%额定转速时理论功率的12.5%。因此,当设备运行在部分负荷时,变速装置的节能潜力十分明显。

4 提高冷冻水的温度

冷水机组标准的冷冻水温度为7℃~12℃,水冷空调的标准工况也是7℃~12℃。但是这个温度范围对于数据中心来说有点低,将带来两个不利因素:

(1)这个温度大大低于数据中心正常运行在40%左右的相对湿度的露点温度,将在风机盘管上形成大量的冷凝水,需要进一步加湿才能保持机房的环境湿度。这个除湿和加湿过程都是非常消耗能量的过程。

(2)冷冻水的温度和冷水机组的效率成正比关系,也就是说冷冻水的温度越高,冷水机组的效率也就越高。根据YORK公司在网络上公布的材料,冷冻水温度每提高一度,冷水机组的效率就可以提高大约3%。

目前,在集装箱数据中心和高功率密度的冷水背板制冷技术中,都把冷冻水的温度设计为12℃~18℃,已经高于露点温度,完全不会除湿,也就不需要加湿。冷冻水的温度提高后,水冷精密空调的制冷能力会下降,实际的制冷能力需要厂家提供的电脑选型软件来确定,一般会下降10%~15%。但是由于冷冻水温度提高后,很少或基本不除湿和加湿,再加上采用EC调速风机,使电机产生的热量减少,导致整个水冷精密空调的实际制冷能力(显冷)下降并不多。

5 供配电系统节能

5.1 正确计算供电功率

使用用电管理软件正确计算用电功率和智能化控制系统用电,提高电源利用率。为机房建设规划提供正确的数据,智能控制整体用电量。

5.2 供配电系统节约电能的技术方法

主要是配电电压深入负荷中心、配电变压器的正确选择和经济运行、配电线路的合理选择和经济运行、电压调节和无功补偿等技术和方法的采用。配电系统的降损节能技术措施如下:

(1)合理使用变压器

根据用电特点选择较为灵活的结线方式,并能随各变压器的负载率及时进行负荷调整,以确保变压器运行在最佳负载状态。变压器的三相负载力求平衡,不平衡运行不仅降低出力,而且增加损耗。

(2)重视和合理进行无功补偿

合理地选择无功补偿方式、补偿点及补偿容量,能有效地稳定系统的电压水平,避免因大量的无功通过线路远距离传输而造成有功网损。对配电网的电容器无功补偿,通常采取集中、分散、就地相结合的方式;电容器自动投切的方式可按母线电压的高低、无功功率的方向、功率因数大小、负载电流的大小、昼夜时间划分进行。

(3)对低压配电线路改造,扩大导线的载流水平

按导线截面选择的原则,可以确定满足要求的最小截面导线;但从长远来看,选用最小截面导线并不经济。如果把理论最小截面导线加大一到二级,线损下降所节省的费用,足以在较短时间内把增加的投资收回。

(4)减少接点数量,降低接触电阻

在配电系统中,导体之间的连接普遍存在,连接点数量众多,不仅成为系统中的安全薄弱环节,而且还是造成线损增加的重要因素。必须重视搭接处的施工工艺,保证导体紧密接触,并可采用降阻剂,进一步降低接触电阻。不同材料间的搭接尤其要注意。

(5)采用节能型照明电器

根据建筑布局和照明场所,合理布置光源、选择照明方式、光源类型是降损节能的有效方法。推广高效节能电光源,以电子镇流器取代电感镇流器;应用电子调光器、延时开关、光控开关、声控开关、感应式开关取代跷板式开关,将大幅降低照明能耗和线损。

6 UPS不间断电源节能

UPS的节能必需从方案、UPS、电池、配电等方面全方位进行。

6.1 按需扩容的柔性规划

目前,数据中心大多是分期分模块的进行建设。考虑未来几年的扩容,在设计时UPS容量一般都考虑容量比较大些。一次安装几套大功率的UPS并机,初期负载量只有规划容量的10%~20%,导致UPS的利用率很低,造成电能的浪费,为了避免这种情况的发生,需要采用模块化的UPS,逐步扩容。

6.2 提高UPS能效

目前UPS均为在线式双变换构架,在其工作时整流器、逆变器均存在功率损耗。提高UPS的工作效率,可以为数据中心节省一大笔电费,可见提高UPS效率是降低整个机房能耗的最直接方法。因此在采购UPS时,应尽量采购效率更高的UPS。

当然UPS效率高不仅仅是满载时的效率高,同时也必须具备一个较高的效率曲线,特别是在“1+1”并机系统时,根据系统规划,每台UPS容量不得大于50%。如果此次效率仅为90%,就算满载效率达到95%以上,也是没有实际意义。所以要求UPS必须采取措施优化效率曲线,使UPS效率在较低负载时也能达到较高的效率。

6.3 降低输入电流谐波,提高功率因数

谐波产生的根本原因是由于电力线路呈现一定阻抗,等效为电阻、电感和电容构成的无源网络,由于非线性负载产生的非正弦电流,造成电路中电流和电压畸变,称为谐波。谐波的危害包括:引起电气组件附加损耗和发热(如电容、变压器、电机等);电气组件温度升高、效率低、加速绝缘老化、降低使用寿命;干扰设备正常工作;无功功率增加,电力设备有功容量降低(如变压器、电缆、配电设备);供电效率低;出现谐振,特别是柴油发电机发电时更为严重;空开跳闸、熔丝熔断、设备无故损坏。解决方法主要有以下四种:

◆采用12脉冲整流器;

◆采用无源滤波器;

◆采用有源滤波器;

◆采用高频IGBT整流及PFC功率因数校正电路设计整流器。

7 高压直流供电技术

与传统48V供电系统类似,高压直流供电系统是由多个并联冗余整流器和蓄电池组成。在正常情况下,整流器将市电交流电源变换为270V、350V或420V等直流电源,供给电信设备,同时给蓄电池充电。电信设备需要其他电压等级的直流电源,采用DC/DC变换器变换得到。市电停电时,由蓄电池放电为电信设备供电;长时间市电停电时,由备用发电机组替代市电,提供交流输入电源。高压直流供电的优势有以下几点。

7.1 可靠性

直流电源模块化输出和电池直接并联给负载供电,后备电池与电源后段并联给服务器构成两路冗余供电,可靠性高,真正做到不间断;如果UPS后备电池只是与电源前段并联给DC/DC供电,整个系统供电对数据设备不是冗余供电模式。在某种原因下UPS系统崩溃,电池不能直接应用,导致后端设备断电,而采用直流供电,将杜绝系统崩溃带来的断电风险。

7.2 可操作、维护性

并机容易,并且可以做成系统解决方案,做到安全不间断割接,功率部分采用模块化,支持带电热插拔,可快速更换,功率部分和监控功能模块CSU之间正常工作受监控单元CSU控制,故障时各自独立控制,避免故障扩散。更换模块和监控单元CSU互不影响,便于维护。

7.3 提高负载的可靠性

计算机等开关电源内部的桥式整流变为直流电正负极防接反电路,即使计算机输入电源的正负极接反,也不影响计算机的正常工作。影响设备寿命和故障的一个重要因素是电容元件的失效问题,交流电经过整流桥之后是一个脉动直流电,使后面的电容元件不停的充放电,寿命缩短。采用直流供电,元器件的寿命延长。延长了负载设备的寿命,提高了其可靠性。

7.4 智能化管理

直流高压开关电源系统与传统48V直流电源系统一样,可以方便的对电池进行全面的智能化管理,具有完备的电池管理系统,有效延长了电池的使用寿命,降低了运营成本,提高了供电的可靠性;UPS电池管理简单、不全面,电池容量损耗速度快。

7.5 降低谐波干扰

对于计算机和服务器来说,采用直流输入,避免了相位和频率的问题,多机并联变得简单易行。无谐波干扰,UPS存在输出功率因数,一般在0.6~0.8。

7.6 安全性

直流高压电源系统是标准的电气柜,安全性高,并且对分路输出和母线的绝缘状况进行实时监控,对人身伤害预警大大提高;UPS非标准一体柜,安全性低。

7.7 高效节能

由于省掉了逆变部分,直流开关系统经过两次变流,电源效率达到92%以上,UPS系统经过四次变流,效率达到70%左右,这样大大节省能源,降低运营成本。

8 提高机房温度

根据中华人民共和国国家标准《电子信息系统机房设计规范》(GB 50174-2008),A类和B类机房的主机房温度要求保持在23±1℃,也就是22℃~24℃。ANSI/TIA 942-2005《Telecommunications Infrastructure Standard for Data Centers》中规定冷通道温度为华氏68~77度,也就是20℃~25℃。美国采暖制冷与空调工程师学会(ASHRAE)对2008年新建的机房冷通道温度从2004年的20℃~25℃提高到18℃~27℃。由于国家标准中规定的主机房温度没有指定是机柜前的进风温度,导致传统机房存在两方面不足:

◆由于没有冷通道或热通道封闭,机房温度特别低,设备内部的温度并不低,大量的冷气短路自循环;

◆机房温度往往低于24℃,处于过度制冷状态。

现代服务器和网络设备等并非传统观念(10年或20年前)中认为的那么娇贵,大部分服务器在温度10℃~35℃,相对湿度20%~80%都可以正常运行(ASHRAE认为的设备环境要求,也是绝大部分商用服务器的工作环境要求范围)。因此可以提高空调送风温度,保证IT设备的运行温度即可。当空调系统的送风和回风温度提高1℃时,空调系统节电约2.5%,同时空调系统的制冷能力提高约5%。

因此,在用户认可的条件下,提高机房的温度是节约能源的措施之一。建议数据中心冷通道的温度(ASHRAE标准要求在冷通道中间对准机柜中间1.5m高度测量,每4个机柜至少一个测试点)最低为24℃或25℃。

9 科学运维

◆人走关灯和关闭大屏幕显示器,减少照明产生的能耗以及相应增加的制冷量;

◆尽量减少运行新风系统,在机房无人时关闭相应区域的新风系统;

◆建议冷通道的温度不低于25℃,定期检查冷通道的温度以免过度制冷造成能源浪费;

◆定期检查地板,防止各种方式的漏风;

◆冷通道必须完全封闭,机柜上没有设备的区域必须安装盲板,没有负荷的机柜区域不能安装通风地板。每次设备变更,都要进行检查;

◆在满足制冷的条件下尽可能的提高冷冻水的温度,最高为12℃~18℃;

◆在气象环境满足的条件下,尽量使用全自然或半自然来免费制冷;

◆定期核对数字采集数据和模拟显示仪表的数据是否一致,若发现数据存在误差,立即更换有关采集设备或仪表;

◆对于还没有使用的独立机房区域,关闭所有机电设备,包括冷冻水管道的阀门;

◆定期检修和清洗冷冻机组内的铜管和冷却塔,确保其工作在最佳状态;

◆对于低负荷的机房,如果精密空调没有EC风机,就要关闭相应的空调,如果是EC风机,要通过实践摸索出更加节能的空调运行方式。

随着我国信息技术的不断发展, 数据业务不断增长,数据中心会越来越多,而且也会越来越重要,对于数据中心节能技术的研究也会越来越多。我们有理由相信, 随着国家标准、规范的陆续制定, 各大运营商、设备供应商以及其他研究机构的不懈努力, 数据中心的节能手段将会越来越先进、越来越可靠,而本文所研究的各项节能技术将会在机房中得到广泛应用,并为我国数据中心的发展做出贡献。

1 钟景华,朱利伟,曹播.新一代绿色数据中心的规划与设计.电子工业出版社.

2 Douglas Alger(作者), 陈实(合著者),谭立勃(合著者),陈宝国(译者),曾少宁(译者), 苏宝龙(译者).思科绿色数据中心建设与管理.人民邮电出版社.

3 顾大伟,郭建兵,黄伟.数据中心建设与管理.电子工业出版社.

4 Energy Logic: A roadmap for reducing energy consumption in the data center.Emerson Network Power.

5 UPS 应用,2008.06.

6 王其英,何春花.UPS 供电系统综合解决方案.电子工业出版社.

7 孙成宝.配电技术手册(低压部分).中国电力出版社.

猜你喜欢
机房数据中心空调
平疫结合的CT机房建设实践
酒泉云计算大数据中心
浅析数据中心空调节能发展趋势
基于VPN的机房局域网远程控制系统
关于建立“格萨尔文献数据中心”的初步构想
浅谈一体化机房系统
浅谈高速公路一体化机房
空调病是怎么回事
奔驰E260车空调不正常
基于云计算的交通运输数据中心实现与应用