浅谈如何提升数据中心制冷能效

2020/9/7 14:38:54 来源:金石易服 作者: 分类:特别报道

数据中心节能降耗应从两个方面入手,第一是减少数据中心IT设备对电能的需求,降低其能耗和发热量,第二是提高供电和制冷系统的效率,减少不必要的浪费。今天我们一起讨论下数据中心制冷系统的节能。



数据中心机房单位面积能耗由10年前的400~500W/m2迅速升高到目前的800~1000W/m2,而且还呈现不断上升的趋势。尤其是目前高密度IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为10kW左右,现在最新的刀片式服务器机架功率高达30kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。


1.针对数据中心机房IT设备用电功耗及机房散热要求。应采用相对应的机房制冷系统解决方案和机房散热方案: 1)当机房机柜功耗在3~6kW时,建议采用风冷或水冷空调系统,采用面对面,背对背的冷热通道分隔的机房气流组织进行规划和建设。在当地气候允许的条件下,可考虑能效比较高的水冷空调系统和自然风冷冷却方案。当机房局部产生热岛时,可使用有气流导向的变风量送风地板,增强机房热岛区的局部散热。


2.当机房机柜功耗在8~15kW时,建议采用封闭冷通道气流组织进行规划,采用风冷或者水冷空调系统。在机房局部功率产生热岛时,可使用EC风机与送风地板,增强机房热岛区的局部散热;在机房局部产生高功率热岛时,使用机房行间空调封闭局部进行内部增强快速散热。

3.当机房机柜功耗在15~25kW时,建议采用机房行间空调,机柜封闭增强机房热岛区的局部散热,有条件可采用冷板式机柜,柜内热空气与冷却水在柜内进行热交换的冷却技术。

4.当机房功率大于25kW时,考虑更加高效的散热冷却技术,采用液冷技术,高密度服务器高度热品质冷却系统。


从以上方案,我们可以看出,对于传统的低功率机柜,利用风冷空调制冷技术即可满足其运行条件。当功率大于10kW时,需采用封闭通道并采用行间空调制冷。当功率大于15kW时,需采用冷板式制冷技术满足机柜运行需要。当功率大于25kW时,考虑更加散热高效的浸没式液冷技术。


云数据中心发展趋势为大规模、高密度机房,传统的空调制冷方式将很难满足未来的数据中心运行要求。如何更加高效节能,我们对比一下上述液冷技术路线与传统技术性能PUE。 2.  不同冷却技术能耗对比对比传统空气冷却、冷板式、浸没式液冷,不考虑外界环境因素变化,三种技术对比如下:




总结


分析三种技术运行工况,制冷系统制冷能耗总体不断降低。冷板式对于传统风冷冷却技术能够有效大幅度降低能耗,浸没式液冷能够更进一步节能降耗,PUE可以达到1.09。随着国内对数据中心节能指标控制越加严格,PUE有更进一步降低的趋势,有此可见,浸没式液冷在高功率、大规模数据中心节能应用存在广阔的前景。随着技术不断发展,数据中心制冷系统将会更加高效节能。

相关资讯

  • 绿色低碳趋势下,DTDATA携业内专家探讨如何实现数据中心高质量发展

    在节能减排、“碳中和”趋势下,绿色节能、低碳、可持续发展也成为了数据中心行业发展主基调。伴随着数据中心规模持续高速增长,也带来了诸多挑战,如何实现数据中心高质量发展?看专家们怎么说。

    2022/3/14 10:00:31
  • 数据中心节能监察:广州、深圳发布最新政策

    最近国家发改委频频为数据中心发声,广州、深圳也随之迎来了6月新政。

    2021/6/18 15:45:32
  • 黑石持续重仓IDC数据中心的背后

    6月7日,黑石集团(Blackstone Group Inc., BX)达成一项交易,以约67亿美元(约合428.57亿元人民币)收购数据中心运营商QTS Realty Trust Inc.(以下简称QTS),并将该数据中心运营商私有化。这是自2015年黑石加大数据业务投资力度后又一次收购数据中心项目。

    2021/6/9 10:44:08
  • GLOBAL SWITCH香港数据中心探秘~世界级的绿色数据中心

    与所有其他Global Switch数据中心一样,Global Switch香港数据中心提供了具有高容灾能力的环境,可通过多种连接方式支持可扩展的、灵活的解决方案。香港数据中心还符合Global Switch一流的运营和环境管理流程,并拥有超过Tier III的运营水准,成为了中国公司海外业务扩张布局的…

    2021/5/26 11:40:39

共有访客发表了评论 网友评论

验证码: 看不清楚?