您的数据到底有多宝贵?
2006-09-25KoThomas
Ko Thomas
● 数据中心的定义
一说到数据中心,人们经常会想到一个高科技IT环境,大小和足球场差不多,其中装满了来自许多厂商的设备,并拥有充足的空调系统,即使伦敦动物园的企鹅,也能一直保持好心情。
事实上,数据中心一词适用于为机柜或机架专门分配的任何空间,其中装有网络设备,这些设备要么为其它网络设备提供服务(一般通过通用布线传送),要么从外部电信网络中获得服务(如程控交换机、光纤或来自ISP的ADSL连接),要么为外部网络提供服务(典型代表是虚拟主机设施)。
我们一般还会认为数据中心是一种多客户端环境,由第三方提供环境维护服务。但是,数据中心同样适用于最终用户内部网络中的主通信间。换句话说,数据中心可以是服务器室,可以是设备间,也可以是并放设施。
● 对数据中心的关注程度不断提高
现代企业高度依赖这些IT设施,必需特别注意这些设施,保证创建安放设备的环境,支持连续无故障操作。近几年来,托管数据中心正在不断增长。尽管这可能是为节约资金而进行的外包活动,但我们认为,这更可能是网络所有者日益认识到自己的业务与IT的相关性,但又缺乏预算或跨领域的专业知识,因而不能内部满足这些需求。这要求协调各种技术服务,包括电力、HVAC、网络、火灾检测及抑制和广域电信服务供应商。
● 适用的标准
电信行业协议已经出版了一项新的标准:数据中心电信设施标准TIA-942。
这一标准的目的是为数据中心或机房的设计和安装提供要求和指导准则。其面向的用户是需要全面了解数据中心设计的设计人员,包括设施规划、布线系统和网络设计。通过提供跨越不同设计领域的信息,并促进设计阶段与建设阶段的协作,TIA-942使得设计人员能够在大楼开发流程的早期考虑数据中心,从而有利于确定建筑结构。
尽管EN 50173 Part 5正在致力填补这一空白,但目前在ISO/IEC或CENELEC领域中还没有专门编写的监管布线实现的标准。EN 50173 Part 5使用人们熟悉的光纤和平衡铜缆介质,并采用层级方法,与BS(EN)50173 Part 2“办公环境通用布线标准”类似。
在数据中心内部,我们将看到主配线架(可能容纳一台核心交换机),支持区域配线架(可能是工作组交换机或支持机架过道的交连),连接到设备端口上(预计将位于设备机架内部)。
把主配线架连接到水平布线区或区域布线区的电缆被视为主干电缆的一部分。主干最可能使用的传输介质是光纤电缆。尽管可以敷设传统室内光纤电缆,但新的概念已经演变,简化了布线过程。其中一个实例是Molex提供的ModLink系列光纤产品,通过这些产品,对主干进行重新配置和重新选路变得象“即插即用”一样简便。
数据中心内部安装的很大一部分布线仍将是UTP或FTP电缆。这将作为水平电缆使用。从数据中心运营要求的高带宽角度看,应该安装高性能六类系统,如Molex PowerCat6系列产品。
另外还将增加一个外部网络接口及相关布线,用来连接外部环境和服务供应商网络。这些对合格的安装组织都不应该成问题。
● 网络运营商面临的主要问题:
不管数据中心的大小如何,所有者、运营商和租用者都首先要注意三点,即灵活性、访问能力和可靠性。
● 灵活性
灵活的基础设施可以容纳各种类型的设备,并适应TIA-942提供的数据中心层级布线方法。
在客户拥有和运营的数据中心中,对部署的设备的控制能力通常会更强;其本身非常灵活,以适应未来技术发展 或IT战略变化。而在并放或虚拟主机设施中,灵活性则是日常运营的前提条件。客户设备会在通知之后不久就到达现场,要求立即连接和投入运行,以使中断时间达到最小,保证满足服务水平协议。
在数据中心内部部署各种设备的要求可能会影响大楼的物理单元。可能需要考虑地板的承重极限,如地板是结构化地板,还是相连的任何活地板系统。普通服务器机架不可能带来任何问题,但可能需要专门考虑大型不间断电源和存储区域网络竖井。很明显,最好在大楼设计阶段、而不是在准备入住阶段完成这些工作。
● 访问能力
访问能力无疑具有重要意义。设备不能自己进行安装和配置,而需要相应人员接触设备,安排完成这些工作。这对确定数据中心的规模具有重大影响,因为技术人员工作和操纵设备需要空间。TIA/EIA-569A和BS(EN) 50174都提供了某些帮助,建议在机柜周围有1.2米的间隙。在理想条件下,确定数据中心的规模只需确定有多少个机架,然后在整体外观尺寸上加上要求的间隙即可。
接触设备还需要考虑门的大小、是否靠近电梯、能否进入装货舱。许多安装人员会遇到这样的问题,即800mm机柜过不去26”的门。简单地指定两扇门,有助于解决这类问题,这在数据中心设计阶段要容易得多、便宜得多,而不是在设备安装时再指定!
在已经确定数据中心内的设备对业务具有关键意义后,还需要考虑设备故障导致的非预计的中断时间。很明显在发生故障时,要求调度技术人员,因此通常要遵守严格的安全政策,安排进入现场。很明显,还要求接触设备和相关布线,这可能需要打开机柜和活地板格。必需知道,尽管这可以完成维修工作,但它也把其它设备暴露给技术人员(直接暴露或通过共享布线设施暴露),因此不能忽视人为错误的威胁。必须有相应的程序,以使这一危险达到最小。
● 可靠性
网络可用性对数据中心的运营至关重要。这进一步增强了数据中心存在的必要性。但是要认识到,访问能力和灵活性需求可能会给可靠性带来负面效应。最大的访问能力可能会导致缺乏对现场人员的控制,使得数据中心很容易发生人为错误。最大的灵活性可能要求电路中有多条连接,以便能够进行重新配置。有更多的连接会带来更多的故障点。似乎必需掌握好一个平衡尺度,必需找到一种方法,根据各组成部分量化数据中心中可能的可靠性。
美国运行时间协会描述的四个层就是这样一个体系,值得我们进一步进行考察。他们认识到实现99.999% (5个9)的可靠性是不切实际的,要求的成本极高,因此他们提出了四个更加容易实现的等级,具体如下:
·第一级:一条电源和冷却分配路径,没有冗余器件,99.671%的可用性。
·第二级:一条电源和冷却分配路径,有冗余器件,99.741%的可用性。
·第三级:多条电源和冷却分配路径,但只有一条路径可用,有冗余器件,可以并发维护,99.982%的可用性。
·第四级:多条电源和冷却分配路径,有冗余器件,容错,99.995%的可用性。
可以很容易看到,第四级方法提供的弹性要高于第一级,预计其非预计中断时间每年不到27分钟,而第一级则接近29个小时,当然第四级的成本要高得多。另外值得一提的是,在N+1配置中,在第四级数据中心发生故障时,可以实现第二级的可靠性。设计成N+2或N+N可以解决这个问题,但其成本一般不允许这样做。加速修复比较合适,这也正是智能基础设施管理(IIM)系统具有重要意义的原因所在。监测数据流量的网络管理工具在市场上已经出现了许多年,而布线则一直是一个盲区。现在,我们不仅能够检测到未经授权断开连接,还可以把它与数据中心内的物理地点关联起来,并通知相应的服务热线发生故障,从而可以安排补救措施。
● 相关的楼宇服务
在考察数据中心内部要求的其它服务前,需要指出的是数据中心不应该提供哪些服务。除数据中心中使用的服务外,不应有任何其它服务穿越数据中心,从而降低发生水灾或污染设备环境的危险。
尽管数据中心也要求门禁、闭路电视和照明等服务,但关键服务是空调、电力、火灾检测及抑制。
● 空调
控制数据中心温度的目标是冷却安装在机柜中的设备,使其保持在工作温度范围内,而不是冷却机柜外面的空气。密闭机柜会阻碍冷空气自由流动,积聚成热区,因此要求某些明智的设计来克服这个问题。通常采用热过道和冷过道的概念。机柜的相邻舱配置设备,其面向位于之间过道的冷空气出口。然后设备风扇把冷空气吹出机架。这作为热空气吹到背面,然后在整个流程中形成对流,从而形成冷热过道交替。其效果取决于影响空气流动的特定设备。开放机架可以帮助空气流动,因为风扇托盘可以强制空气流通。在理想情况下,任何HVAC系统还应创造略微正向的压力,帮助减少尘土和其它杂质进入房间。
● 电力
任何数据中心都要求充足的市电分配。确切的电力要求取决于大量的因素,而不只是安装的网络设备的耗电量。必需考虑照明。HVAC设施可能会带来明显的负荷。即使处于备用状态下,UPS仍会产生负荷。数据中心内部的弹性水平也有影响。简单地说,作为备份提供的设备越多(不管是网络设备还是备用HVAC和照明),要求的电力会越多,运行成本也就越高。
在设计配电系统时,为每个机柜提供两条馈电并不少见。这可能会来自不同的配电板,甚至来自能源公司不同的配电设施。
还应提供多个通用的电源插座,以满足偶尔使用的电动工具或真空吸尘器。这些插座应清楚地贴上标签,不能用
来为机架安装的设备供电。不注意而断开连接的风险非常高,是不能接受的。
● 火灾检测及抑制
尽管消防机构很少要求,但在安放贵重设备的地方最好使用没有腐蚀性的气体抑制系统。在使用比较传统的喷淋
系统时,最好使用干管系统,其中POC (燃烧产物)检测器必需准备好填装管道,另外在热量积聚到一定程度时单独的喷淋头要突然喷水。这可以很好地防止系统意外泄漏,进而导致发生水灾。如果安装湿管系统,至少应该考虑喷头周围的线箱。
● 总结
在设计数据中心时,明确要求进行认真设计。尽管可能会实现几乎整体网络可用性,但其所要支付的价格会非常高。为达到可以接受的可用性,从一开始就管理客户的预期至关重要。而最终要问的问题是:“您的数据到底有多宝贵?”