专业的信息化与通信融合产品选型平台及垂直门户
注册 登陆 设为首页 加入收藏
首页 企业新闻 招标信息 行业应用 厂商专区 活动 商城 中标信息

资讯
中心

新闻中心 人物观点
厂商专区 市场分析
行业
应用
政府机构 能源产业 金融机构
教育科研 医疗卫生 交通运输
应用
分类
统一协作 呼叫客服 IP语音 视频会议 智能管理 数据库
数字监控 信息安全 IP储存 移动应用 云计算 物联网

TOP

数据中心整体效率的测量和节能改造实践
2011-09-16 10:01:19 来源:it168 作者:【
关键词:数据中心 测量和控制 节能改造
 
数据中心作为企业数据的集中地,在企业运营中起到至关重要的作用,而随着数据中心设备密度的快速增长,其效率问题也越来越受到更多的关注。

  数据中心作为企业数据的集中地,在企业运营中起到至关重要的作用,而随着数据中心设备密度的快速增长,其效率问题也越来越受到更多的关注。在影响数据中心效率的诸多因素中,电源的提供和制冷是非常关键的因素。传统的冷却系统设计在解决集中热负荷的问题上也日益显得力不从心,找到一个更加科学的制冷解决方案已经刻不容缓。9月15日,中国绿色数据中心大会上,北京纳源丰科技发展有限公司高级工程师介绍了数据中心整体效率的测量和节能改造。具体原文如下:


  ▲北京纳源丰科技发展有限公司高级工程师 田浩

  各位领导、专家、同行,大家下午好,感谢大家能耐心在这里听我的报告,我是纳源丰科技发展有限公司的工程师,我今天主题是“数据中心整体效率测量和节能改造实践”。

  我们的副标题叫SIS分布冷却技术及应用。现在从物理模型来看,相当于一个换热网络,它融合了对流、辐射和导热这种模式,热力传递过程是通过服务器环境送风,一直送到服务器冷源,这个模式的同时也造就了多尺度、多环节换热网络,在这样的一个比较复杂的换热体系里,这么多年把我们冷源温度降低到5度左右,热源温度是50度,因此我们人为造成了5度到50度的温差,这样肯定会有固有的非常大的缺点。比如说热湿环境不均匀,这是我们遇到的最大的、最头疼的问题,局部过热主要由于机柜分布密度比较大,再加上机柜的发热量不均匀,局部热点是经常存在的。

  另外,它是先进行一个等式的降温,送风之前湿度是明显过低的,在送风之前要用加湿器对空气进行加湿,把空气送出去,这是一个重复加湿的过程,也会人为增加空调的处理能耗。在冬季的时候,我亲眼见过有些机房排水管还在排水。因为我们目前采用的是比较集中的冷源模式,集中放在某些区域,为了满足最不利送风末端的风量的需求,风机要大功率的转。这种情况下,再配合局部热点的情况下出现,我们的能耗就会很大。包括自然通风也好,空调热回收技术也好,或者换热器也好,我们在调研过程中都遇到过这种技术。这些技术初期的时候还可以,但是随着时间的增长,很多问题都出现了,包括空气的洁净度、设备的维护,工作量是不是容易失效,换热效率是不是降低有很多问题,所以宁可多能耗也要保证运行,所以最后机房运行的能耗很大。

  在三年前,公司跟清华大学合作,对北京市大概有50到60大型的政府机关,主要是一些办公楼,银行,还有自用的数据中心做了一次为期一年的调查分析,对不同类型,不同体量的进行分析,经过测试之后我们发现这里面的问题还是比较多的,机房这个领域不测不知道,一些事情出来之后,会发现这个神奇的领域里什么事情都有可能发生。有些比较大的,比如说几千平米的大的数据中心,尤其是银行系统,它的空调的电耗,包括压缩机、冷却塔、加湿设备等等比例很高,最高能到60%左右。所以我们现在用的集中空调,从目前的调研情况看,从2009年到现在,已经不能满足机房日益增长的设备增长,对我们提高效率和降低成本的要求都是比较难以实现的。

  说了机房热过程的物理模型之后,大家看一下通用指标,如果按照PUE来讲的话,本意来讲衡量是整个机房运行时候的能效,或者说是用的电有多少是放在IT设备。这就是PUE指标在我们看来会有非常大的局限性。这个指标在衡量能效方面还是比较通用的指标,这个指标如果定义为冷却效率的话,电耗既包括压缩机的功耗,也包括风机的功耗,也包括加湿设备等等,把这些全部算在内,可以很好的控制能效。

  这是上次调研中做的一个比较,如果换成是水冷空调,大家可以看到,如果从PUE值来讲,两者相差的并不是很大,如果我们用CE指标来看,差别还是比较大的,CE指标用于衡量冷却设备的能耗比PUE更有效,更真实。

  我们这么多年依托清华大学的技术平台和资源,经过了这么多年的研究,开发出了分布式冷却模式。模式原理是这样的,从这张图上来看,冷源和热源之间的距离如果越大,或者室内热量采集末端尺度越大的话,理论上要付出最小的冷却功耗。换言之,随着这个尺度的增大,我们付出的冷却能耗会有增长。如果我们在十几米,二十米的尺度上来做文章的话,我们是它的80%、90%,如果用PUE这个概念,就是做到1.8到1.9的样子。如果往前走,跟冷源、热源之间的距离缩短到这个量级的话,比如做到机柜这个尺度上,就可以把制冷的能耗往下调一个量级,大概是30%以下,这个时候就有文章可以做了。

  下面这张图是美国工程师协会对机房的设备吸入的冷却空气参数有一个严格的规定。早期来讲,2004年标准

  对吸入空气的温湿度限定在很小的区域范围之内,就要求我们要做到精确的送风,或者重复的除湿和加湿。如果达不到这个送风要求的话,客户就不会把服务器送到你这里来。到了2008年的时候,美国把这个标准放宽了,2008年的标准放宽了15%左右。核心思想是对分散热源就地排热,或者说就地冷却,在延长自然冷源利用时间,提高经济效益,同时避免了冷热气流混合,彻底消除局部热点问题。

  纳源丰核心技术路线是采用分离式,这里走的是制冷剂,能够让制冷剂在很长的距离走起来,这一关可以放在机柜里,或者放在热源附近,这一段可以有一些距离,室内外温差只要有5度,这个热管就可以正常的走起来,并且实现高密度的传输,这是我们这么多年的研究成果。整个过程是自发的循环。

  跟常规的空调相比,利用自然冷源方面确实有很大的优势,在全年的正常温差之内不能进行调节。我们只要在5度温差以上就可以完全替代它,这是一个最大的特点。另外,从安装、维护、运营方面来讲,跟现有的空调是最接近的。

  目前的分布式冷源性能特点就是把热管做了一个分级处理,利用多级独立的换热器,可以使温差大幅度的见效,提高换热效率,减小体积和重量,可以把常规的换热器降低40到50%。同时,我们采用了多级散热方式,可以使可靠性上了一个台阶,如果任何一个方面出现了故障,其他可以正常的工作,设备的安全性永远是第一位的,这方面我们还是有很大优势的。

  简单给大家说一个案例,这是一个机房,北京某高校,面积是130平米左右,原有各类机柜共41个,包括普通机柜35个,配套式机柜6个。IT设备总功率50KW,3台5匹大金风冷式机柜等等。

  看一下这个图,送回风路径不合理,冷热气流混合严重,各空调机组送回风温度差异大,运行不稳定,环境控制精度低,局部热点多,IT设备冷却效果差。

  不同的空调送风温度相差有很多,有些空调送回风出现波动,可以在将近10度范围之内波动。

  再有空调也有问题,必须考虑传感器的偏差,还有气流组织的不畅,这样对空调的使用非常不利。1月到3月份的时候,对空调的功率和室内机房的温度进行了测试,大家可以有一个对比,(PPT)。采用分布式冷却系统要对机柜进行改造,这个机柜是冰柜式的,把里面做了换热器,这里面也是分级的,要提高换热效率。从这个方面讲,一个是提高了可靠性,对室外没有影响,消除室外的局部热点。另外一点,可以方便设备的运行维护,如果这里面某一级的设备出了问题,不会影响其他级的设备。浅热和湿度处理,这边的湿度设定在35%,室内分布式冷却,室外用的是自然冷却系统,机械制冷系统备用,就把里面原来的空调所有的空调设备全部取消,都改用新型的机柜。

  运行控制起来,我们对每个机柜的温度、电耗都可以进行测量和控制。

  这是对整个一年的运行情况做了一个测试,比如说我们全年运行在这样的一个模式之下,主要是根据室外的温度进行运行模式的控制和调整。可以看到,如果采用PUE指标来做的话,在不同室外温度下进行对比会发现,除了在整个夏季以外,我们的CE值比它略高,没有优势以外,其他都会有明显的跃升,这就是我们能突破40%根本原因所在。以北京地区为例,如果走在完全需要自然冷却,大概需要4000个小时,如果可以配合的话,需要6000个小时。测算下来,整个过度期会比能效比提高3倍以上,就是这样的一个特点。

  最开始,我们给高校的副馆长看,他们都不信,所以从今年的1月到8月,我们进行了连续的监控,比如这是我们测量的一个点,看这张图,温度波动非常小。大家可以看到,从1月到3月,这是原来的空调设备进行的测试,平均的空调功率大概是在十几千瓦左右,8月份又回去到原来的系统做对比,飙升到30个千瓦左右。而我们的设备从4月到7月,4月份的时候,我们的设备每一天功率大概是4千瓦左右,我们在7月很热的时候,大概就是15千瓦左右,而它是30千瓦,这就是差别。我们衡量空调设备的性能,在夏季的时候,仍然仍做到4到5左右,我们在4月份能做到15,而它1到3月份,最多就是到4左右,这就是改造的效果。后来我们9月份的时候把测试报表给图书馆的副馆长,他们当时有不信,我说不管你们信不信,反正我信。他们自己也测试了,结果跟我们相似。

  所以从系统层面来看,无论是什么样的辅助设备,无论是自然通风也好,还是热回收也好,只用一段时间,而且这段时间的运行还有和原来空调配合的问题,这套系统在目前运行大概4个月左右的时间。

      

责任编辑:admin
免责声明:以上内容转载互联网平台或企业单位自行提供,对内容的真实性、准确性和合法性不负责,Voipchina网对此不承担任何法律责任。

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部

上一篇构建绿色数据中心呼声愈高 多家运..
下一篇思科新建数据中心 用于灾难恢复和..

热门文章

图片主题

最新文章

相关文章

广告位

Copyright@2003-2009 网络通信中国(原VoIP中国) 版权所有
联系方式:503927495@qq.com
  京ICP备05067673号-1 京公网安1101111101259

《合作通告》

本站因快速发展需要,有共赢合作、战略创投意向的个人或机构,请联系咨询:
(电话)010-69397252、13911442656(v)
(邮箱)503927495@qq.com
我知道了