您好,欢迎访问三七文档
当前位置:首页 > 临时分类 > 机房空调缘何能耗高及相应的解决方案
机房空调缘何能耗超高及相应的解决方案上篇机房空调缘何能耗超高技术领域:近年来随着高热密度计算机机房建设的发展,一方面多数机房仍沿用原机房局址进行扩容而成;另一方面也有的机房是沿用原始设计而未能够进行主设备扩容。这就会出现使用原精密空调机组已跟不上机房建设发展的需求而产生机房冷却能力不足量的现象;或是精密空调机组的配置量超出了现有机房设备需求而产生机房冷却能力超量的现象,这都会导致机房总体能耗之居高不下。据IDC预测,到2008年IT采购成本将与能源成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的60%到70%。在接下来的几年里,世界上一半左右的数据中心将受电力和空间的约束,能耗会占到一个IT部门1/3的预算。故在数据能源与冷却问题会议上,Gartner有限公司的副总MichaelBell说:“在2008年全世界一半的数据中心将因为低效的动力供给和冷却能力不能达到高密度设备要求而过时。”并有机构预测,在2000年全球第一波数据中心浪潮中建设的数据中心将有50%会在2008年开始重建。技术背景应用范围:机房精密空调机组应用于电子计算机机房是按照现行国家标准A级电子信息系统机房进行设计的,其运行工况为:23±2℃/50±10%Rh;对于计算机和数据处理机房用单元式空气调节机现行国家标准检验工况为23±1℃/55±4%Rh。而现有机房空调生产厂家所提供的机型其室内机回风口工况参数点的设计多为24℃/50%Rh,在此工况下进行机房选型设计的直接膨胀式空调压缩机COP值和整机SHR(显热比)值均较大,故机房建设进行空调设计时多按照上述工况参数点进行选型。但是若对应到22℃/50%Rh的工况参数点的设计会出现:传统直膨式空调机的压缩机COP值同比下降约7~8%、而整机显冷量对比原总冷量亦会下降8~19.5%(根据公开的机房空调厂家数据表,直接膨胀式空调不同的下送风机型显冷量同比会下降到原总冷量的92%~80.5%);若是采用冷冻水式空调机组整机的显冷量对比原显冷量会下降13.2%~16.6%。然而机房空调的负荷绝大部分是计算机类高热密度负荷,其全部为显热负荷。那么对比回风参数24℃/50%Rh的工况所设计出来的空调机组,当运行于22℃/50%Rh工况下同比增加的能耗大约是15%~25%(即为了给显热负荷降温而使得直接膨胀式机房空调机组压缩机运行时间的同比延长量;或意味着冷冻水式机房空调机组之外部冷冻水主机供应冷冻水时间的延长量也即相应能耗的增长量)。若继续调低空调机运行工况参数设定点,对应的能耗会呈非线性的增长;而且运行工况参数设定的过低会导致机房空气温度低于露点温度而出现不可逆转的湿度下降,当超过相对湿度设定下限后机房空调会自动执行加湿功能,由于电极式加湿器喷出的水雾会抵消掉机房空调大量的制冷量,届时机房空调的耗能会呈指数性的上升。现在计算机机房的建设模式,一般是沿用原数据机房局址进行简单的扩容而成。由于机房早期建设的时候已经对机柜和空调进行了布局,达到空调机组气流组织对当时的机柜负荷是最佳的设计;那么现在越是高集成度(更高的热密度)的计算机服务器进场越会被安排在远离空调机组的位置上。这样势必会造成在新的计算机服务器开机运行时出现此区域温度超标的现象,故而必须将空调机组设定的回风温度24℃调低。一般情况是在刀片服务器进场后至少调低空调机组设定温度2℃。对此造成的能耗就已经超过空调出厂标准的20%以上了。然而随着刀片服务器的高度集成化,其散热量已经达到了每个机架30KW之巨;甚至有的正常运行机房在服务器机柜出风口测量到了47℃的高温。最后机房面临着计算机服务器等高热密度负荷的不断进场,只能一味的调低空调机的设定温度值,致使机房内温度低得像个冷库一样。据研究机构UptimeInstitute在2006年对美国19个数据中心的研究中发现,数据中心的过度冷却(overcooling)差不多达到实际所需要的2倍。目前85%以上的数据中心机房存在过度制冷问题,对应的机房空调机组耗能也会比设计工况增加能耗50%以上,最终造成机房空调居高不下的高额运行费用。另一方面设备发热量又与设备类型、型号,机房布置有着很大关系。据对一些机房做过的调研,发现有的设备发热量并不大。例如某电信枢纽大楼在室外30℃、室内21℃干球温度时的实际冷负荷指标只有66W/m2,其中设备发热很小。机房冷负荷远远小于常规计算指标的165~222W/m2。[1]而现实中有的机房占地面积达到了396平方米,而真正需要机房空调的服务器和配线架负荷区域却仅有60平方米。以上机房的建设,可能是根据电子计算机机房设计规范(GB50174-93)按下列方法进行主机房面积确定的:1.当计算机系统设备已选型时,可按下式计算:A=K∑S(2.2.2-1)式中A--计算机主机房使用面积(m2);K--系数,取值为5~7;S--计算机系统及辅助设备的投影面积(m2)。2.当计算机系统的设备尚未选型时,可按下式计算:A=KN(2.2.2-1)式中K--单台设备占用面积,可取4.5~5.5(m2v/台);N--计算机主机房内所有设备的总台数。所以会产生上述机房内精密空调的配置远大于实际计算机设备的需求之问题的存在。由于机房空调无法感知机房的服务器或通信网络设备具体需求量,故其制冷能力之超量会导致空调机组压缩机频繁启动,产生振荡,最终也会造成机房空调高额的运行费用。随着数据中心(IDC)机房采用服务器虚拟化技术的大量应用,机房内高热密度负荷势必会出现散热点向关键服务器转移的现象,届时可能会出现机房内只出现少数的高热密度区域,其微环境需求会愈加严峻。现有技术解决方案:据绿色网格(GreenGrid)组织的有关专家所给出以下的建议。以指导怎样提高数据中心能效。其中心理念是更好地冷却过热区域,而不浪费能量去冷却已经冷却的区域。具体指导方针:a)冷却通道:热通道设计是为了促进有效流动同时将冷热空气流分开,并恰当安置空气调节设备。b)为服务器运行选择动力经济模式。c)采用动态计算流软件(computationalfluiddynamics)对数据中心的空气流进行模拟,并尝试不同的地面通风口位置和计算空间空气调节单元位置。最优冷却系统可使数据中心能源支出节约25%。d)无论负荷大还是小,冷却系统的能耗是固定的。很好地利用将使其固定能耗降低。在保证增长的情况下,将生产量与数据中心设备的冷却需求相匹配。e)数据中心过热点的直接冷却与冷却系统紧密相关,但注意不要冷却已冷却区域。将冷却空气的通道减短。使数据中心设计为服务器和存储器机架的空气流与房间空气流相匹配,这样就不会将电能浪费在从相反方向来抽取空气。f)采用刀片服务器和存储器虚拟化来减少需要动力冷却系统进行冷却的物理设备的数量。这同时也减少了数据中心所占用的空间。g)采用更多的高能效照明设备(安装控制器或定时器),这可以直接节约照明费用,并节约冷却费用(因为照明设备的使用会导致其自身过热)。h)改进机架内部的空气流,使其穿过通道,这可以通过配置盲板隔离空机架空间来实现。i)当采用专业工程方法将冷却用水直接输送到机架以将电力系统和隔离管道等的风险最小化。j)采用多核芯片来整合服务器可以减少所需冷却服务器的数量。购买更多的高效芯片并进行动力分级以减少待机功率,这样可减少冷却需求。k)如果可能,采用空气调节装置运行于冬季经济模式。l)检查个别的空气调节单元是否相协调并且未进行相反工作。总之其理念是减少整体的冷却需求并考虑包括冷却系统的整体支出。应该直接针对机架内部的过热点进行冷却,同时将热空气排出由通风口排出。现有技术针对以上机房所存在的问题有的采用APC-MGE公司的NetworkAIR和InfraStruXure英飞集成系统InRow解决方案。即将机房内气流组织分布为热通道和冷通道,并在机柜上增加盲板等措施。但是应用此解决方案所存在的问题必须是新机房建设、且须采购英飞集成系统标准的机柜;而对于老机房已排序的机柜以及计算机负荷散热量不明晰、易变化的情况帮助不大,尚且还存在造价、建设周期等诸多问题。由于高性能计算系统的生命周期只有3~5年,所以选择特定的水冷却系统或气流冷却系统相对来说都比较昂贵。还有采用艾默生网络能源公司的LibertDX99.999%高热密度制冷和能源调节解决方案。即用冷媒填充管道以蛇行方式分部在数据中心的服务器架上。当液态制冷剂流动到服务器附件的管道,它就吸收来自于服务器的热量,化为气体,然后被抽回到冷却装置,该空调装置然后将其压缩成液态冷媒进行另一个循环。其采用新型的数码涡旋压缩机,来提供全面的可调节制冷控制。并采用变速电扇的使用来匹配制冷系统的气流和IT设备的气流。通过对空气循环的精确监测,据说可令所有的服务器,无论在机架上处于任何位置,均能接受到同等的气流量。据载和其他服务器散热系统相比,艾默生网络能源的这种液体散热系统,能把散热系统耗费的功耗降低30%至50%。但此方案与APC-MGE公司的解决方案存有同样性质的问题,并且尚存冷媒变流量循环泵构造的系统复杂、需维护等弊端。还有采用IBM水冷和储冷电池的解决方案。即采用冷冻水型机房空调和蓄冷巷位来赚取昼夜用电差价的方式。但此方案同样存在上述2个方案的通病。而且在中国和美国,重大、关键机房对于冷冻水型空调的方案多不敢选用。譬如北京气象局为奥运会服务的数据中心曾经想采用水冷制冷系统,但是由于安装、维护的成本问题,不得不仍旧采用传统的空调制冷方式。一位CIO曾经告知,他们在搭建数据中心时,已经考虑到能耗的问题,但是由于业务与领导的要求,不得不暂时隐瞒了能耗问题,而是在事后想办法解决每年的高额电费。还有采用HP动态智能冷却系统DSC(DynamicPowerSaver)解决方案。譬如对多个数据中心进行整合,形成占地70,000平方英尺的高密度数据中心。数据中心由原有设备和新服务器机架与刀片组成。在IT机架上部署了7,500个传感器,这些传感器组成了一个严密的网络,能够实时测量数据中心气温。此外,数据中心还采用灵活的机制,以响应设施故障、异常现象和断电情况。相对于采用当前最为常见的数据中心散热方法,全面采用动态智能散热技术(DSC)的数据中心可将能耗降低40%。并由Liebert公司和STULZ公司这两名惠普合作伙伴将自己的散热控制组件与DSC解决方案集成,从而支持客户将该解决方案无缝集成到其现有的空调产品中。但此方案尚存有造价昂贵、建造调试周期长,还必须和各个机房空调厂家的控制系统集成等弊端。机房空调服务的对象是计算机服务器或通信网络设备,相应研究的应该是具体高热密度负荷的实际工况参数,而现有机房空调技术测定的均是机房温度。这样最终造成了现有机房空调技术高耗能、低效率,经济环保性能较差的状况。下篇本项技术的解决方案由于现有技术中空调系统检测到的是循环空气而非真正负荷实际的热工参数,不能及时推算出真实负荷的空调热工需求成度。故此类空调系统的反馈调节及控制模型无法完全满足区域内所有空调负荷真实的热工需求;为负荷所提供的微环境调节效应是滞后的、或者是振荡的;甚至室内空气温、湿度会依照与空调机空间距离的远近而呈现阶跃状。不能为负荷提供真正的微气候环境调节;也无法针对空调负荷的实际需求来进行空调系统的设计。这样造成空调的系统设计实际上是给区域整体空间空气所用;却没能体现出空调是为了实际负荷提供微环境调节而进行热工设计初衷。现有的空调系统的温度控制模型从初始设计上即是将区域内整个空间作为空调机组的工作对象,即为了区域内少量的真实负荷而使得几乎区域空间里的全部空气参与了空调系统的热工处理;又由于空气的导热性能较差,导致为了真正的空调负荷所进行的热工环境调节成效就无法达到预期的设计要求。对比仅仅是为了真正的空调负荷而提供微气候热工调节的空调控制模式,能源的消耗会是十分巨大的。即便是不计入要为空调负荷提供及时而有效率的热工环境调节的能耗部分、仅是计算将区域内全部空气参与了热工处理所耗用的能源数量也是相当可观的。由于现有空调控制系统的反馈调节是无法靠检测负荷实际热工参数来控制空调系统的运行;不能实现是为了满足真正
本文标题:机房空调缘何能耗高及相应的解决方案
链接地址:https://www.777doc.com/doc-2379047 .html