分享

邓重秋:云计算数据中心的节能与规划

 小木设计 2019-05-12

  由工业和信息化节能与综合利用司指导,中国数据中心产业发展联盟主办,中国IDC产业联盟网与北京三达经济技术合作开发中心联合主办的主题为“拯救地球,绿化你的数据中心”的“2011中国绿色数据中心技术大会”于9月15日在北京世纪国建宾馆隆重举行。

  会上广东省电信规划设计院IDC工程设计研究中心主任邓重秋女士发表了主题为“云计算数据中心的节能与规划”的演讲:

  各位领导,各位专家下午好!我现在讲一下云计算数据中心的节能与规划。我为什么讲这个题目呢?先从一个小故事谈起,有一个运营商要在机房装200个机架,行不行呢?我们一看,每个机架是8到10千瓦,机房层高是三米多,我们跟他说,如果用通道的方式是不可行的,他们就把原来的机房搬到另外一个城市。我们有些做IT的人,可能只想到功率的变化,但是对基础设施的要求还没有准备,所以就出了这样一个笑话,造成了这个问题。

广东省电信规划设计院IDC工程设计研究中心主任邓重秋

  那么云计算到底跟我们的基础设施,跟我们的设计到底有什么关系呢?也不是说云计算一定等于高密度,云计算就一定是这样的一个高密度的趋势,但是,这个趋势还是存在的。我跟我们院的数据专业的同事讨论了,主要问题是云计算是虚拟化的,所以网络设备是高效率,高集成度的,由于这个根本原因,就使得机架功率的密度,从常规的升到到8或者10,这样的趋势越来越多。我们最近给腾讯做的,也给百度做的一些东西,都碰到了这些问题。还有超过15千瓦的,这个原因是什么呢?这些运营商已经走到了我们的前面了,他们已经在搞云计算了,所以大功率的云存储器,还有刀片服务器等等,都会出现这样的趋势。我个人感觉,温度升高了,从目前来说,从中国电信的规范来说,对于高密度的解决问题只是有一些说法,到底怎么做是个说法的问题,还有做法的问题,还有准备阶段,规范方面还需要进一步的摸索来解决这个问题。它给我们的基础设施,对我们设计院,都有新的挑战。

  我今天看一下大会的主要特点,归纳下来除了工商银行,都以自用型的数据中心为主,中国电信,中国移动中国联通三大运营商是最多的。中国电信以前在外包呼叫中心比较大,占了50%、60%,中国移动也在发力,还有中国联通。所以云计算服务也是三大运营商发展的必然趋势,所以对我们来说,对于基础设施的冲击也是比较重要的。

  我们今天到会的还有外包型数据的领军人物,像世纪互联,鹏博士,还有中金数据,他们跟我们在一个位置,我们做的都是外包的。外包数据的东西有什么区别?我个人感觉规范上是一致的,但是考虑问题的角度上是不一致的。因为我们做外包所有的人都是使企业利润最大化,最后通过设计,成功的设计、成功的运维来获取我们的利润,所以节约成本和增加利润是必须控制和把握的。如果没有这个核心,也就是说没有一个优化的绿色数据中心的设计,就没有未来的数据中心的生命。因为自用型的,像金融类、保险类,他们对节资方面一开始不是特别的重视,我一开始给他们设计的时候,他们运维人员提出可靠性是最重要的。但是我们外包要兼顾进行,首先要确定可靠性。从外包来说,增加利润还有节能、节资都要保证。

  整个云计算的工程,从设计施工运行来说,设计应该是最大的,我们算了一下,大概是60%、70%左右。施工也很重要,运行维护也是。非常关键的,你做得再好,如果没有经验可能会出很多事情,我们是赔不起的。

  影响云计算数据中心的主要因素,我们容易忽视的一点是通信设备的效率,如果效率不高的话就会出现很大问题,做了虚拟化之后,14台就可以抵得上原来的100台。我们中国电信不见得按机架来卖,所以这个也是商务模式的更新。在座的各位,我们能够做到的,有一批IT厂家可以做到。

  其他就是制冷机房效率,另外还有空调末端和空调主机的系统。空调末端的效率,比如末端风机,气流组织,自然冷却等等,都是很重要的。中央空调也是很重要的,有的人提出来6000平米做中央空调,后来说4000平米做中央空调,实际上我们觉得按平米做不做中央空调是不够准确的,以后每平米机架的功率都到10几千瓦了,这个时候2000平米就核算了。关于中央空调什么时候设比较合适,可能用平米的概念已经是过时得了,更重要的应该是用单位功率情况去计算,到底是用中央空调好还是分体机好。

  这个下送风系统,云计算到来之后,地板应该尽量的抬高,适合今后的发展需要。目前,抬高的地板600的比较多,这个情况要具体分析,是不是做下走线。还有是看功率到多少。现在的一个问题是下送风已经成为大家公认的一个很重要的做法了,但是下送风地板抬得多高的都有,这个问题要通过很好的计算。

  关于自然冷源这个问题也是很重要的,我们在广东也给客户在做,新风具有巨大的节能潜力,现在我们有些客户要求在广东、重庆,还有在广西等等地方做,这个地方也不是不能做,但是要注意空气的质量和除湿,还要看投资回报比,要进行详细的分析。

  电力的输配系统效率也是很重要的。电力这边还是比较重要的事情,很多的变压器和发电机距离我们的机房大概有100个左右,原来觉得发电机有噪音,发电出来的东西要通过很长的电缆线进到机房,这种平面布局在我们国内是非常之多的。所以这个输配电的效率,规划的位置很重要。发动机和变压器,与主机房差50米以上的非常多,现在还有这么做的。

  关于输配电线路,如果工程不是很大,也不存在其他的问题,做的很好的平面规划就可以确保。但是总量达到7000多,需要并机的时候,就要有高压机了,这个需要很好的分析。另外,谐波治理也很重要,我们出现跳闸的问题,外包进来的东西不好,有可能出现短路,谐波治理不光是系统化的治理,而且进来的东西也要治理。现在有一个准入制度,就是说你的服务器各项指标不符合要求是不可以进来的,要做一些调整。

  我简单讲一下高压配电系统,这个超大型的。外边的电源便宜很多,供电等级一样情况下,供电的能力会增加一倍。另外,国家的供配电规范也提出了660伏电机,从传统煤炭系统的电压,可以进入到常规的电压,所以对重要的大的工程,可以对电机、水泵,采用660伏的机组,这样从效率来说是非常核算的。我们现在全国有很多地方都在做改造,关于空调机组,当功率很大的时候,我们国家的规范是大于900千瓦,就要使用10千伏的空调机组了。所以电压等级的选择也成为我们做大型数据中心一个很重要的,首先是选择电源,现在广东地区的新的科学城,还有苏州、天津等等地方都有了,国家将来会全部推广2万电压等级,所以选址也是比较重要的。

  这是660伏电动机系统的设计图标。

  从供电的角度来说,我们设计院正在接受国家的标准设计《通信高压直流电源系统工程设计规范》,现在国家标准已经下了,将来的更新还要经过讨论。从发展趋势来说,整个行业推的是比较快的,从江苏那边开始,交流电就不让用了,系统来说还是效率比较高的。在全世界我们也做过调研,各个国家是不同的,270的,300的,整个趋势都往这个方向走。

  另外是和网络设备服务器兼容的问题,很多是可以完全达到的。现在运行成功操作两、三年的有北京电信,江苏电信等等,客户包括腾讯、阿里巴巴等等,以前是不接受的,现在也都完全接受了。外包的和自用的都可以往前推,但是不要太急,要慢慢往前走,因为问题也不是没有的,推的过程中逐渐总结经验,我觉得是比较好的办法。

  这是直流系统图。这张图的意思是告诉大家,无论是空调线路还是高压线路,低压线路,变压器和平面上的走法,拐来拐去的,这种图我们看了很多,就是按照最短的线路来走。

  那么云计算这个东西,目前对于网络设备的要求确实比较高,中国电信也成立了云计算数据中心,对网络设备的要求提高,云计算数据中心将来要到A级,因为云一旦出现了问题之后,影响面是很大的。另外像国外的数据中心,他们的新风特别好,还有是湖水引入,这在国内是比较难的。

  另外,搞水蓄冷,冰蓄冷都觉得比较麻烦,我们现在也逐渐尝试水蓄冷。水蓄冷整个来说,PUE小于1.4,从价钱的角度来说会很好,但是从电的角度来说没有什么节能的,也是需要用电的。另外是建筑用地,数据中心有些是新建机房,有些是外包租用的,功率密度也慢慢的往上升了,原来4个平米才上一个机架,现在按电费,所以地的钱也成为了重要的因素,希望今后把节地的概念也引进来,所以节省用地也会很便宜。

  我们跟厂家也交流过多次,这是云机架功率冷却方式(PPT)。

  这是冷通道的情况,解决了这样的一个问题。国内现在有几个厂家在做这样的产品,冷通道温度的变化会降低得非常慢,这样对维护的角度比较好。

  这是水蓄冷技术,也是我们考虑的一个方案,北京还有其他的地区,都有峰谷电价的问题,正常情况下有一个备用机组,晚上把备用机组打开做蓄冷。有几个好处,第一,万一出了问题,可以把空调水系统的闸门导过去。1万多平米的机房,如果采用个机组,大概省电费200多万,这个方面对外包来说是可以采用的。

  这个是液冷技术,我推算到一定程度,这些厂家会有大量的人用。

  这是我举的一个例子,就是我们的发电机系统,这是中国电信广州云计算数据中心。

  我今天就讲到这些,谢谢大家!

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多