专业的信息化与通信融合产品选型平台及垂直门户
注册 登陆 设为首页 加入收藏
首页 企业新闻 招标信息 行业应用 厂商专区 活动 商城 中标信息

资讯
中心

新闻中心 人物观点
厂商专区 市场分析
行业
应用
政府机构 能源产业 金融机构
教育科研 医疗卫生 交通运输
应用
分类
统一协作 呼叫客服 IP语音 视频会议 智能管理 数据库
数字监控 信息安全 IP储存 移动应用 云计算 物联网

TOP

数据中心机房选址要考虑扩展性要求
2013-07-05 17:24:11 来源:中国IDC圈 作者:【
关键词:数据中心
 
数据中心由两个层面组成——IT层面和机房设施层面。机房设施的扩展性需求,是IT层面的扩展性对运行环境的灵活性的诉求。与IT层面的扩展性相比,机房设施的可扩展性实现起来更困难一些,就好比前者是家具,后者是房间。

  数据中心由两个层面组成——IT层面和机房设施层面。机房设施的扩展性需求,是IT层面的扩展性对运行环境的灵活性的诉求。与IT层面的扩展性相比,机房设施的可扩展性实现起来更困难一些,就好比前者是家具,后者是房间。

  机房设施的扩展方式,或称扩容方式,从目前国内的情况看,“一步到位”的方式与“逐步升级”的方式,都因用户需求各异而共存着。实际上,这两种方式确实各有千秋。从机房设施的工程实践上看,前者易、后者难;从投资风险上看,前者大、后者小;从投资、运营的过程和管理上看,前者简便、后者繁琐。所以,对于业务相对稳定的企业用户,更愿意选择前者;而业务发展迅速或市场风险高的企业,则更愿意选择后者,即对机房设施的可扩展性要求高,希望“随需应变”。

  用户对机房设施“随需应变”的要求,对机房的规划、设计、设备选型、运行维护等四个环节及电源、空气调节、防雷、机柜、监控等五个子系统(有时将防雷纳入电源子系统)提出了挑战。

  一、规划

  在规划环节,首先需要在数据中心机房选址问题上考虑扩展性的要求,包括对面积、楼层位置、楼层净高、地面载荷等方面的要求。

  如果决定采用单一房间,显然要考虑未来扩容时的IT设备及机房设备的面积需求;另外可行的方案是,扩容时占用其他房间——在这种情况下,需要同时对欲占用的房间进行同样的结构评估,包括楼层位置、楼层净高与承重。

  楼层位置主要影响空调室外机房的放置问题。一般情况下,空调室外机与机房的垂直距离不宜超过15米,所以机房的选址楼层多选在距离楼顶、底层或设备层较近的楼层,并在楼顶、底层或设备层中预留足够的空间,以备未来机房空调系统扩容时,安装空调室外机。 如果未来扩容时计划不扩大机房面积,而是增大机房内的设备密度(或机架数量),则必须考虑未来的设备重量与机房地板承重。

  二、设备选型

  设备选型环节应考虑的问题很多,以下分为子系统来讨论。

  1、供电子系统 从供电子系统来看,需要考虑包括UPS、供电线路、配电线路等在内的整体的可扩展性。

  对于一般规模数据中心机房来讲,可以不考虑扩容对电力变压器的要求,但是需要考虑机房供电线路的容量问题。由于供电线路的扩容改造工程比较复杂,所以建议在机房初建时,应预留能够满足未来机房设备扩容需求的容量,其中应特别注意空调机、新风机等其他设备的负荷问题。

  对于机房主输入开关的配置,有三种方案可以选择。如果采用“一步到位”的方案,则扩容时不必断开此开关及上级主开关,不存在机房输入市电中断的情况,但缺点是在机房运行初期由于开关容量过大,发生负载故障时,存在动作不灵敏的可能及线路火灾隐患。采用“逐步升级”即每当扩容时更换主开关的方案,则不存在以上隐患,但缺点是扩容时需断电。折中方案是根据扩容前后的容量,预先安装两个或多个空气开关,根据某一阶段的实际负载量,启用一个、两个或多个空开,这种方式能够解决断电隐患和火灾隐患。

  在机房的设备投资中,UPS占有很大比重,所以UPS的扩展性问题更应引起关注。目前,随着半导体技术、电力电子技术、控制技术的发展,UPS技术已日瑧完善与成熟,并机技术已经被广泛采用,从而为不停机扩容提供了技术保障。而模块化技术的发展,则使UPS的扩容变得异于寻常地简便——就像直流电源模块的扩容一样,推拉之间便可完成增加或更换模块,完成系统扩容或修复。但是与整机模式相比,模块化设计的模式的单位容量制造成本较高,并且单模块的容量不宜做得很大,这使得模块化UPS更常用于有冗余要求的方案中,尤其是N+1冗余配置的场合,以改善整个UPS系统的经济性。 对于UPS输出配电的选择也不容易忽视。输出配电包括配电柜和机柜内电源插排及线缆连接等。

  资料显示,40~50%的负载断电故障的原因是由于输出配电而不是UPS或电池组的问题(数据来源:司安瑞咨询,2004年),而其中有许多案例往往发生在输出扩容过程中(如支路过载、电源插排接触不良等问题)。配电环节投资比重很低,建议用户在选用时应注意配电部件的产品品质,并且在机柜内杜绝使用非机柜专用插排,扩容前检测每一支路的负载电流情况,配电柜应预留足够支路空开位置,尽量选用可热插拔的空开等。

  2、空气调节子系统

  空气调节子系统包括数据中心机房专用空调机设备、新风机设备等组成的气流发生系统以及气流组织、配送系统。气流发生系统用来产生恒温、恒湿、洁净的气流,其容量根据设备的热负荷决定,扩容时主要考虑空间、承重问题和供电容量等问题(见前文)。

  气流配送系统用来形成合理的气流组织,将气流分配、输送到IT设备。如果整个机房的扩容采用不增加面积、而增加设备密度的方式,气流配送系统的扩容将必须考虑更多的因素。与配电回路中的电阻、压降可以忽略不计相反,气流配送回路中的风阻和风压的降落不可忽略,而且可能比负荷(IT设备等)本身的风阻、风压降落还要大;更严重的是,回路参数与许多变动的现场环境条件有关,如地板开口面积、数量、位置、机房密闭程度、IT设备放置位置、角度、方向、机邻机柜之间的距离和相对位置、机柜柜门的开孔率、地板高度等等。为了给扩容时提供变化余地,需要在机房初建时尽量减少固定风阻,如地板下送风风阻。

  减小送风风阻的方法有:增加高架地板高度(国家标准《电子计算机机房设计规范GB50174-93》中规定,地板敷设高度宜为200~350mm,但国内有经验、有条件的用户已经建设高度为600mm的机房);规范地板下线缆铺设工艺;保证机柜上部净高以以及回风通路载面积。国内经常出现忽视楼层净高问题,而导致扩容后部分IT设备运行温度过高的情况,如某地板高度为150mm的机房,在扩容时被迫迁址的案例。另外常见的案例是错误选用普通空调机而出现扩容后无法克服回路风阻、提供足够的风量而使IT设备超温的情况。

  3、机柜子系统 机柜子系统越来越受到重视。IT设备的机架化势不可挡,以至于非机架或设备(如塔式服务器)也“借机”上架了。正如美国可用性研究中心提出的“IT微环境”概念所提示的那样,机架(机柜)正在成为IT设备的“新家”,或者说,机柜内的微环境,才是所谓的“机房环境”,更有研究专家称:“机柜即机房”。在某种程度上讲,至少在机房的物理空间层面上讲,机柜确实可以理解为被“切割成模块的机房”。

  数据中心机柜的扩展性表现在机柜内设备密度的扩展和机柜数量的扩展。 一般情况下,用户在机房初建时都在机柜内预留了相当宽裕的空间,以42U机柜为例,通常所有设备只占据10~20个U,所以表面上看,在空间上具有100~200%的扩展性。但是,实际的扩展性都远非如此乐观,因为必须将机柜的配风能力(通常称为散热能力)以及配电能力考虑在内。

  首先,机柜内的设备需要温度、湿度适宜并且风量充足的冷风(冷空气),这些冷风被机柜内的IT设备吸入,从而为设备内的部件尤其是CPU降温。当机柜内设备数量增加到一定数量时,由地板出风口送出的冷风的风量将不能满足所有设备的需求,从而形成部分IT设备配风不足而过热,形成局部热点。

  风量的分配由包括出风口风压、出风口面积等的许多因素决定,在冷风从地板出风口向上排出后的上升过程中,动压不断下降,从而引起位于机柜不同高度的设备的配风量分布很不均匀。而且,当出口风速比较小时,动压不够强,冷风不能被送到机柜上部的设备,使上部设备过热;而加大出口风速,虽然能够解决机柜上部的送风问题,但会引起机柜下部位置的净压过低甚至产生负压(射流效应),从而使下部设备配风不足,引起过热。

  解决机柜内设备密度扩展时遇到的这种局部热点问题,可以采用调配IT设备位置的方式来解决。例如,把热负荷最大的设备,安装在机柜中部位置,以便获得最大的配风风量。另外的解决方法是,在机柜的上部或下部位置,安装轴向水平的强排风扇,增强上部或下部的吸入能力(即减小IT设备的入口静压),从而增加配风风量。值得注意的是,早期机柜的顶部通常都安装有垂直轴向的、向上排风的强排风扇,但这种风扇对目前的标准IT机柜没有任何作用,因为现在所有的机架式IT设备均为前进风、后排风。

  其次,机柜内的设备需要供电以及与机柜外部的通讯联络。当机柜内的IT设备数量增加时,这些线缆、连接端子同时成倍地增加,从而对机架式电源排插的容量、插口数量都提出了扩展要求。如果要增加电源排插的数量,则需要考虑是否有留有空间、在配电柜上是否留有空开及接线位置。机柜内的布线空间也是需要提前考虑的,因为当机柜内的功率密度提高时,设备后部的线缆将明显增加风阻,所以必须考虑线缆管理及走线空间的问题。

  数据中心机柜数量的扩展方式,则主要要求机柜外部的扩展条件,考虑问题的内容被包含在机房的扩展问题中。

      

责任编辑:admin
免责声明:以上内容转载互联网平台或企业单位自行提供,对内容的真实性、准确性和合法性不负责,Voipchina网对此不承担任何法律责任。

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部

上一篇浸没冷却延伸到数据中心
下一篇数据中心进行虚拟化资源云化整合..

热门文章

图片主题

最新文章

相关文章

广告位

Copyright@2003-2009 网络通信中国(原VoIP中国) 版权所有
联系方式:503927495@qq.com
  京ICP备05067673号-1 京公网安1101111101259