您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 销售管理 > 绿色、环保、新一代数据中心
RittalITSolutionHenryHan/April09/#1Rittal–CompleteITCompetence水冷技术推动数据中心效率变革水冷技术推动数据中心效率变革Rittal–CompleteITCompetencePDF文件使用pdfFactory试用版本创建–CompleteITCompetence•1961年始创于德国•全球拥有10,000多名员工•60个国际子公司•19个生产基地•6大产品系列,10,000种以上标准产品•年销售额超过16亿欧元我们是谁我们是谁威图国际RittalInternational---数据中心基础架构解决方案提供商PDF文件使用pdfFactory试用版本创建–CompleteITCompetence我们做什么我们做什么IT基础设施和RimatriX5的系统集成:•机柜•电源•冷却系统IT的物理安全性重点:•防火•防烟气•防水•防盗窃•安全•监控和远程管理•服务IT数据中心咨询•安全可靠性分析•能源效率分析•IT安全策略•数据中心设计PDF文件使用pdfFactory试用版本创建–CompleteITCompetenceSpendingonServersversusPowerandCooling(inBill.US-Dollar)*01020304050607080200120022003200420052006200720082009*Quelle:IDC/WiWoNr.28vom09.07.2007电源/空调服务器能源成本比较IDC数据:2007年中国服务器市场销售额:110.88亿2007年中国服务器能耗:136.8亿PDF文件使用pdfFactory试用版本创建–CompleteITCompetencePUE&DCiEPUE&DCiEPUE(PowerUsageEffectiveness/电源使用效率)PUE=数据中心总设备能耗/IT设备能耗PUE是一个比率,基准是2,越接近1表明能效水平越好。DCiE(DataCenterinfrastructureEfficiency/数据中心基础架构效率)DCiE=IT设备能耗/数据中心总设备能耗x100DCiE是一个百分比值,数值越大越好。据统计,国外先进的机房PUE值可以达到1.7,而我们国家的PUE平均值则在2.5以上,这意味着IT设备每耗一度电,就有多达1.5度的电被机房设施消耗掉了。特别是中小规模的机房PUE值更高,测量数值普遍在3左右,这说明有大量的电实际都被电源、制冷、散热这些设备给消耗了,而用于IT设备中的电能很少。PDF文件使用pdfFactory试用版本创建–CompleteITCompetence从何处入手开始降低成本?3%lightetcetera10%powerdistributionandbackup50%server37%cooling数据中心的能耗成本PDF文件使用pdfFactory试用版本创建–CompleteITCompetence•BladeServer–IBMBladeCenterHcandrawupto5.8kWeachor24kWperrack•1UServer–HPDL360G5serversgenerate622Wperserveror26kWperrack•NetworkRouter–CiscoCRS-1routercancreatealoadof15-16kWperrack•Telecommunications–PoEVoIPswitchescangenerate15WperportorxkWPerrack高热量的高热量的ITIT设备设备PDF文件使用pdfFactory试用版本创建–CompleteITCompetence传统数据中心的散热瓶颈:约5KW/机柜传统数据中心的散热局限传统数据中心的散热局限数据来源:ASHRAE,AmericanSocietyofHeatingandAir-ConditioningEngineers美国采暖,制冷与空调工程师学会高度有限热密度高风量不足冷热中和气流紊乱PDF文件使用pdfFactory试用版本创建–CompleteITCompetence传统数据中心的紊乱气流传统数据中心的紊乱气流ASHRAE评估大约25-60%的冷量由于糟糕的气流状况而损失。PDF文件使用pdfFactory试用版本创建–CompleteITCompetenceLCPLCPLiquidCoolingPackage针对数据中心面临的散热困境,Rittal推出了高效液冷系统LCP,完整、合理、灵活、高效解决机房散热问题。PDF文件使用pdfFactory试用版本创建–CompleteITCompetence+=LCPserverrackhigh-performancesolutionHEXfanalternative1pr.enterforanimationPDF文件使用pdfFactory试用版本创建–CompleteITCompetence使用使用LCPLCP的数据中心的数据中心PDF文件使用pdfFactory试用版本创建–CompleteITCompetenceLCPLCP案例案例LenovoLenovo深腾深腾70007000百万亿次超级计算机百万亿次超级计算机48台机柜,平均热量20KW54台LCP占地面积200平米PDF文件使用pdfFactory试用版本创建–CompleteITCompetenceLCPLCP热成像分析热成像分析PDF文件使用pdfFactory试用版本创建–CompleteITCompetenceLCPLCP测试实例测试实例冷:出风冷:出风2121℃℃回风回风2929℃℃静:噪声静:噪声62.3dBA62.3dBAPDF文件使用pdfFactory试用版本创建–CompleteITCompetenceLCPLCP节能节能ABCABCA:精准定位,减少浪费UptimeInstitute研究结论:•由于传统空调效率较低,90%的数据中心过度配置空调系统•尽管数据中心配置超过需求2.6倍的空调,热点问题仍然普遍存在,并大约存在于10%的空间范围内LCP可按需求1:1配置,从而减少能源的浪费VSPDF文件使用pdfFactory试用版本创建–CompleteITCompetenceLCPLCP节能节能ABCABCB:针对设备冷却,无需过度冷却房间由于LCP近乎封闭运行,对机房环境温度要求不高,因而无需将机房温度设置过低,而提高机房温度可以大幅节约能源。例如:如将机房环境温度从22℃提高到26℃,即可节能约16%20%5℃16%4℃12%3℃8%2℃4%1℃空调系统可节能房间温度每升高Source:SwissFederalEnergySupplyOfficePDF文件使用pdfFactory试用版本创建–CompleteITCompetenceLCPLCP节能节能ABCABCC:利用自然环境,减少碳排放在冬季,数据中心仍然需要制冷,使用水作为冷媒的优势在于可以应用自然冷却系统(FreeCooling),即使用自然风对水进行冷却,而不必开启冷凝机组,从而达到节能环保的目的。在气温低于10℃时,可完全使用自然冷却系统,最多可节能达50%。泵自然冷却系统冷凝机组PDF文件使用pdfFactory试用版本创建–CompleteITCompetence水冷精密空调水冷精密空调PDF文件使用pdfFactory试用版本创建–CompleteITCompetence提升效率减少CO2排放降低成本/¥我们的目标我们的目标PDF文件使用pdfFactory试用版本创建–CompleteITCompetence更多详细信息,请访问我们的网站!PDF文件使用pdfFactory试用版本创建
本文标题:绿色、环保、新一代数据中心
链接地址:https://www.777doc.com/doc-6499875 .html