分享

优化计算中心机房的送风方式与节能

 wunianyi 2015-10-19
送风方式对能耗的影响

本课件作者:丁涛。观点:不能因为计算中心占地面积大,能耗大就可以大手大脚,不计成本。其实计算中心挖潜的余地很大,优化计算中心机房的送风方式就是一个很好的例证!

下送风方式优于其它送风方式

对全国几个具代表性的大型IDC机房进行调研,(同室外环境温度35~38℃的状态下):

内 容

下送风

专用空调机房

上送风

专用空调机房

上送风专用空调

和普通空调间隔安装

服务器运行负载功率(KW)

1120

255

112

509

空调同步能耗功率(KW)

550

322

121

981

空调占服务器能耗的比值

49%

126%

108%

192%

温度梯度的图解模型:

根据数学模型,我们建立温度梯度的图解模型,机房不同高度的温度梯度可模拟为下图(下送上回方式见图a;上送下回方式见图b)。


温度梯度图形解析
由下图中最右的温度梯度图形可知,在同一个机房的相同环境下,两种送风方式在机房空间的温度梯度存在明显差异,其差值可由下图表示为:


下送风方式是计算中心机房最佳的气流组织方式。它使温度在机房工作区整个高度上的阶跃值小于上送风的方式,因为它阻止了设备放出的热量再返回到机房工作区,提高了制冷效率,节约了能耗。

对上送风机房的送风改造措施

上海电信某上送风IDC机房,其通信设备发热量与空调机冷量数据如下:

机房名称

机房面积

空调总容量

设备总发热量

机房冷负荷(设备发热量+其他冷负荷)

主机房

450㎡

308.5KW

187.95KW

215KW

网络机房

100㎡

47.1KW

21.575KW

28KW

小 计

550㎡

355.6KW

209.5KW

243KW

由于IDC机房热量大,上送风空调冷风吹不远,往往在机架走道1/2--2/3距离内有效果,其余地方是热浪滚滚。为此,我们采取计算摸拟的方式来确定介决方案:

采取加装接力风机的方式,见下图。机房经过两个夏季的考验,效果良好。

机算中心上送风机房另一种改造方法:管道上送风方式(节电20%以上)


下送风的两种形式

(1).IDC机架工艺(冷风架内循环)


IDC标准机架工艺


(2) IDC机架工艺(冷风架外循环)


冷风架外循环理想状态


架外冷风循环不理想状态


两种气流组织方式比较



机架内

机架外

1

风阻

2

先冷却机架内

3

先冷却环境

4

影响机架上部冷却

机架实测:

某数据中心

单个机架发热量:2.8kW

送风方式:下送风上走线

实际测试:

送风平均温度为18℃,机架出

风温度为30℃

小结

采用冷风架内循环(小于4KW/架)时:

*假地板高度0.5米,机架顶应加装强制风冷电机。

假地板高度0.5米,功耗2KW/架左右可不加装强制风冷电机。

*假地板高度大于1米时,机架可自然冷却。

在冷量足够时,要确保冷风路由不短路,不紊流,这才是空调节能的保证!



气流组织要适应高功率密度机架

约束气流和自由气流

气流的流动有2种基本形式,一种是约束流,即在有限空间内被强制按照人为规定的路径流动,例如风管内的气流, 机架内的风道;另一种是自由气流,例如上送风系统中的射流。在计算中心机房中,约束流的计算方便,气流利用率高(不容易形成呆滞区),在冷却设备时应首先考虑此种方式。自由气流对环境冷却中可以应用,由于其有较好的弥漫性,对控制环境有很好的作用。

气流短路和送风扩散

气流短路主要是存在短路路径,例如空调出风口和回风口太近且无物理阻隔,就会造成空调气流短路,又如在机架中,进风的前腔和排风的后腔的水平空间中没有隔板,也会造成冷气不经过服务器而直接短路到排风。气流短路还可能发生在前后没有良好隔绝的服务器进风和排风口。短路的气流是有害的,没有按照规定的路径带走热量,只是空循环。

在实践中,我们对送风扩散做过测试,选择前面板开孔的机架,测量进风速度、排风速度和机架内参考点温度,然后将面板封闭,在其他工况完全的情况下,数据有明显差异。

上表说明,在面板开孔情况下,由于送风无效扩散,风速大风量大能耗增大,而冷却效果下降。


一个刀片是一个卡式服务器,上面装有处理,记忆单元,硬盘,整合的以太网 NICs,可选的光纤HBAs通道,硬件方案管理及其他 I/O 技术。

IBM

Each BladeCenter chassis occupies “7U”– 每個刀片机箱占“7U”;

Max 6 BladeCenters in standard “42U” rack – 每個机架可裝6個机箱共“42U”;

Max heat output per BladeCenter: 4kW – 每個机箱最大發熱量4KW;

Max heat output per rack: 24kW – 每個机架最大發熱量24KW;

Nominal cooling airflow: 6×850 = 5100 m3/h –額定散熱風量 6×850 = 5100 m3/h。

Dell

10 PowerEdge 1855 Blades occupy “7U”–10個PowerEdge 1855刀片占“7U”

Max 60 PowerEdge 1855 Blades instandard “42U” rack–每個机架可裝60個PowerEdge 1855刀片共“42U”

Max heat output per 10 Blades: 4.17kW–10個刀片最大發熱量4.17KW

Max heat output per rack: 25kW –每個机架最大發熱量: 25KW

Nominal cooling airflow: 6×680= 4080 m3/h – 額定散熱風量: 6×680 = 4080 m3/h

kW/m2→KW/Rack

刀片服务器是插入一个供应共用框架,如电源,制冷,服务器管理,KVM开关的机箱
每个机箱是7U,每个机架是42U,也就是每个机架可装6个机箱
目前刀片服务器在数据中心一般都分散装在几个机架上

重量也是问题-满载机架大约可达到900公斤

由于在同一个机架上的刀片服务器不可能同时满载,实际上的热负荷小于估计值(IBM和Siemens只为他们的设备提供最大15KW的制冷量)


对策

a.低功率密度(小于4KW/架)

下送风架内循环,效率高已采用


b.中功率密度

下送风+活化地板,己有部分机房在试用





活化地板系統:

EC 風機,由独特的控制軟件控制


c.高功率密度(大于12KW/架)

下送风+冷池+活化地板+吊顶(风管),修改目前规范。



多种对策在一个机房的应用:



专用空调与普通空调对能耗的影响

计算中心机房显热量大:

专用空调显热比为0.95压缩机能效比3.3

普通空调显热比为0.65压缩机能效比2.9

以CM20A专用空调为例:总冷量19.1KW,则显冷量18.2KW;

普通空调要产生18.2KW的显冷量,则:18.2KW/0.65=28KW

两种空调的年耗电计算:

专用空调

(19.1/3.3)*24*365=50702KWH

普通空调:

(28/2.9)*24*365=84579KWH

普通空调比专用空调年耗电量大:

84579/50702=1.67倍。

计算中心机房的节能管理

(1)节能减排工作的理念:
a.计算中心是耗电大户,一定要有节能意识。

b.一切服从于安全供电,不断提高供电系统的可用性永远是第一位的,安全供电是最大的节能,不能牺牲设备的使用寿命。

c.节能数量不能是无限的,大多数节能是节约原来多消耗的那一部分。

d节能在短期内还需要一定的投入。

e节能不能增加维护工作量。

(2)节能管理的三种模式

A.减少能耗(节约)型节能;

限制用能:“人走灯灭”

非高峰时段停开部分电梯;(不影响使用)

B.设备改善(更新)型节能;

用新的高能效的设备(如:改造相控)

C.运行改善(优化管理)型节能。

负荷追踪的动态管理:装置与供电局同步的智能电表(统计用)

成本追踪的动态管理:跟踪电费单。

(3)系统功能:(供参考)

1 实时监控

●实时能耗监测

●能源质量监测

●主要设备运行监控

●实时能量平衡

2 设备优化

●能耗最优的控制模型

●优化控制

3 需量管理

●设备分组管理

●控制优先级

●提前调节预警

●线路运行方式自动识别

4 无功管理

5 仿真优化

●自动负荷仿真建模

●仿真运行

●仿真调度
6
成本单耗分析
●成本分摊
●单耗分析
7
其他能源管理
8
能耗审计(选项)
●帐单校核
●生成审计报表
9
决策支持(选项)
●预测分析
●项目改造效果预测
●数据综合分析
10
系统维护管理



    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多