分享

图解5G超级路由器和光传设备冷却方式

 明哲工作室 2020-03-17

        由于5G和大数据业务的快速发展,需要更大的带宽和更低的时延,超级路由器和光传设备被快速部署,这些设备功耗巨大,给供电供冷带来了巨大调整,其中的供冷问题,更是设备部署的难点。这里以华为NE5000E设备为例,介绍相关冷却问题。

        NE5000E全称为NetEngine 5000E核心路由器,是华为面向互联网骨干节点、数据互联中心节点和城域网核心节点推出的超级核心路由器和光传设备,单机柜典型功耗超30KW,如表1,4+2+2集群超过200kW,这给三家运营商的机房供电、散热带来极大挑战,其中最最难的就是冷却问题。

  表1 NE5000E单柜功耗情况

一、NE5000E机柜特性

        目前的NE5000E典型功耗为30KW,27℃情况为28KW,45℃情况下35KW,采用普通前进风后出风方式,单机柜气流如图2,独立的通风通道,系统无热级联,NE5000E设备的环温工作区间较大,支持环温0~40℃,短期-5~50℃。

  图2  NE5000E单机柜气流情况


二、布置方式

        目前有单柜布置(图2)、B2B集群布置方式(图3)和多框集群部署(图4)等多种部署方式,单柜部署典型功耗为30KW,双柜集群60KW,多柜集群为200KW。

  图3 NE5000E B2B集群气流情况

  图4 多框集群气流情况

三、冷却方式

        从目前勘察来看,运营商现有在网运行机房单机柜在6KW的以下,基本采用传统开放式、房间级制冷无法满足高密散热,如果直接布置30KW的NE5000E设备,会产生冷气配送不均,导致局部热点明显,设备进风温度超出长期工作范围等情况,如果在目前情况下保障NE5000E的冷却?下面几种方案供参考和借鉴:

1、空间置换法

        也叫平均功率密度法。在实际情况中,由于机房空间的限制,增加空调冷量的方法很难实现,因此通过牺牲机柜数量,让高密度机架可以有效地“借用”邻近机架的冷量来进行冷却,总体平均机柜密度小于等于机房的设计功率密度,如布置1个NE5000E设备时,就采用30/5=6个机柜数量,如果布置B2B集群,就需要60/5=12个机柜数量,图5,而对于多框集群,功耗200KW,需要200/5=40个机柜空间。这种方式不用改变机房原有冷却方式,利用原有条件,建设较快,缺点是机房利用率低,能效低。

图5  平均功率密度冷却方式  

2、热通道封闭

        对NE5000E的设备出风进行封闭,图6,让热风直接回到空调,这样方式,可以避免NE5000E的气流对周围设备的影响。较高的回风温度使得与制冷盘管的热交换更充分,制冷设备利用率更好,总效率有所提升。另外热通道内的温度较高,如果把热空气直接引到室外,就是热气直排技术,可以大大降低设备的空调能耗。这种方式可以利用机房原有条件,缺点是机房利用率低。

  图6  热通道封闭

3、行间空调+微模块方案

        这种方式采用就近制冷,冷却效果好,冷热气流无混合,而且气流路径较短,冷气资源利用效率高,PUE相变前两种方式可降低0.2,而且机房利用率较高,图7,不利的是由于主设备热量高,空间小,温升快,空调需要实现连续制冷会增加电源的投资。

  图7 微模块方案

4、热通道封闭+热气直排

        考虑NE5000E集群的发热量大,同时设备进出风温差很高,初步测定,典型功耗情况下,进风温度22度情况下,设备出风高达40度,这个高的温度对空调和能耗是一个严重挑战。因此考虑热通道封闭的同时,可以通过热排风管,让风扇低速运行,将40度的热风直接排出室外,图8,可以大大降低空调能耗,;另外一方面,当制冷系统发生故障时,直排风机进入高速运行模式,将热风直排,可以有效延缓机柜温度的升高,而提供给风机的UPS电源只需要很小。

图8 热通道封闭+热气直排

5、液冷方案

        当机柜功率密度超过15KW时,采用液冷冷却方式,满足设备冷却的同时,可以很好的节能,如图9。虽然NE5000E单柜高达30KW,但由于NE5000E设备目前不支持液冷方式,该方案未能实施。

图9 液冷方案

三、建议

        旧机房可以采用1、2种方式部署,可以直接采用机房原来空调,原来气流组织和功率密度不变,对机房改动少,安全性较好,缺点是机柜利用率低,机房PUE较高;新机房推荐采用方案三和方案四,优先推荐方案四,微模块+热直排,冷却效果好而且能效高;未来在主设备支持情况下,可以考虑液冷方案,达到更高的能效。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多