数据中心耗电大户及对策
服务器、存储、网络设备……数据中心里这些设备是最直观的耗电设施。如今,在绿色节能浪潮的推动下,各大厂商也纷纷通过各种方式改进产品技术,降低产品能耗。
2013-2017年中国数据中心基础设施产品市场销售额预测
采用低功耗芯片
另外,IT设备运维管理中的许多细节,看似事小,其实节能作用却不小。例如取消“空闲”服务器的任务,取消不必要的冗余存储系统,关闭这些闲置IT设备,直接减少电能消耗。
节能芯片
研究显示,数据中心内正在运行的众多服务器中总存在一些“空闲”服务器,这些服务器耗电但是不做任何有用的工作,用户可让非时间紧要型存储离线工作,待机的磁带和光盘耗电量较少,而旋转的硬盘则耗电较多。寻找能够从本地逻辑转移到离线状态的存储任务,从而不必让更多的硬盘连接到网络。
采用高温节能服务器主板
节能服务器
服务器电源管理功能能够将服务器的组件控制成闲置和睡眠状态,这个功能就像笔记本电脑电源管理一样。在启用这种功能时,许多应用程序可以很好地工作,实现IT系统的节能。当然,也有一些应用程序的响应时间要求也许比省电更重要,这就需要根据实现情况确定。
采用刀片服务器
典型的例子就是采用刀片式服务器。通过这种高密度设备取代传统服务器,在配合虚拟化技术,企业数据中心不仅可以减少物理服务器的数量,而且能够减缓机房面积扩展,两方面减少电力消耗。事实上,刀片式服务器使用同样的商用处理器,能源和冷却的要求比目前的机架服务器节省10%。刀片式服务器与机架服务器相比的好处是减少了输入/输出电缆线及设备空间。
对于数据中心的那些老旧服务器,淘汰更新是实践绿色节能的必要途径。也许,有人会觉得淘汰还能使用的旧设备,转而采购新设备,造成了不必要的成本投入。其实不然,因为更新服务器的成本实际上远远低于老化设施未来的能源消耗成本。新的服务器和新的技术看似增加了投资成本,但是这部分的成本投入往往比维持现有老旧设施更加廉价。
降低数据中心的PUE值 降低机房散热所消耗的电能,提高数据中心机房的电源使用效率,降低数据中心的PUE值,目前主要有以下几种方法:
1、 在数据中心机房中建设冷通道,并配置下送风机房专用风冷式精密空调。 2、 在数据中心机房中建设热通道,并配置下送风机房专用风冷式精密空调。 3、 在数据中心机房中建设专用风冷式精密空调冷风和热风管道,对机柜进行全密封强制散热。 4、 在数据中心机房中使用下送风机房专用风冷式精密空调和智能送风机柜,将机房冷风净压仓的冷风直接送入机柜。 5、 在数据中心机房采用大型水冷式机房精密空调。 6、 在数据中心机房建设专用大型水冷式机房精密空调和芯片冷却管道,直接给IT设备芯片散热。 7、 在数据中心机房采用机房风冷式精密空调+大型新风机1:1配置,合理利用自然新风冷源。 这几种方法有各自的优势和不足,首先从冷源方面来分析,第1、2、3、4种方法均都是采用机房专用风冷式精密空调作为冷源,第5、6种方法采用水冷式精密空调,第7种采用风冷式精密空调或自然冷风和水模。使用风冷式精密空调的方法在节约电能主要依靠空调的制冷能效比,能效比一般在3~4之间,节能方面有限。使用水冷式精密空调,能效比最大能达到6,一般在4以上。使用自然风的新风节系统时,最大的能效比最大可达12。 接下来,从机房内设备散热效果方面来分析,第1、2、5、7种方法都采用冷风源被动平均分布散热,要求整个机房的发热量布局要非常均衡,否则可能出现机房冷热不均,单相机柜局部过热的问题。 第3种采用主动大风量强制散热,每个机柜热出风管道都配有风机,散热效果好,容易出现过度制冷,风机也需要消耗一定的电能。 第4种方法采用主要设备机柜进风口配置变速风机,动态给机柜提供冷风,较好解决局部单个机柜过热和机柜内热负荷突然增大的问题,将机房内的温度提高到空调的回风温度,但机柜的深度比普通机柜深度要大100mm,风机需要消耗电能。 第6种方法采用精准散热,主芯片散热效果好,但电源、硬盘等部件需要精准散热不容易实施,需要服务器产商支持。 最后,从机房内设备散热建设难易成度来分析,第1、2、4、7种方法基本上是比较接近,比传统下送风空调系统略微复杂一点,比较容易实施,成本相差也不是太大。 第3种方法,需要对机柜前后门进行密封,实施起来比较困难,风管建设比较多,对机房的整体布局有影响,需要非常细致的规划和设计,成本相对要高一些。 第5种方法,水冷空调的建设门槛较高,比较适用于大型的机房,空调设备比风冷式精密空调要复杂,成本相对要高一些,运行也需要专业维护人员。 第6种方法,空调部份和第5种方法一样,但是分支制冷管道方面,会相对复杂很多,要非常了解服务器产商等设备的结构,甚至于需要它们的支持,成本方面相对会高出一部份。 |
- 上一篇:IDC数据中心能耗分析
- 下一篇:从IDC流量看未来的云服务走势