企业简介>>MORE

 哈尔滨龙易电气有限公司拥有十年以上的蓄电池监测、检测、活化产品的研发、生产经验,是国内外蓄电池监测技术的先行者。立足于提高电源系统蓄电池设备运行的安全性、可靠性,在高质量产品和技术创新方面拥有良好的声誉,使龙易电气成为蓄电池监测、检测、活化解决方案的首选。   [详细]

联系我们

哈尔滨龙易电气有限公司
地址:哈尔滨市道里区太湖北路7号哈高科3楼
电  话:0451-51833544
        0451-86337677
        0451-88107677
传 真:0451-88107677-8003
400电话:400-6644-331
网 址:http://www.looyy.com
联系人:于工

TIA-942 数据中心的电信基础设施标准 您现在的位置: > 新闻中心 > 行业信息 > TIA-942 数据中心的电信基础设施标准
TIA-942 数据中心的电信基础设施标准
时间2019-01-25 10:42 点击:
TIA-942 ,《数据中心的电信基础设施标准》
数据中心设施的设计策略
 
摘要
Cisco® 企业数据中心网络体系结构是 Cisco Systems® 公司 为满足 IT 环境的业务需求提供灵活支持而设 计的一种 集成化和具有适用性 的网络体系结构,它在很大程度上依靠基础物理设施来提供保证 IT 环境完美、可靠运行的电源设备、冷却设备、物理机架、布线、物理安全和防火措施。本白皮书讲述了支持新兴的虚拟运算环境的各项设施的设计策略。
简介
数据中心的管理员们如今更趋向于考虑如何让 IT 更好地为商业策略服务、提高运营效率和为持续发展提供技术平台这些问题。 Cisco 企业数据中心网络体系结构是一种 集成化和具有适用性 的网络体系结构,它在支持新兴的面向服务的架构、基础设施虚拟化以及按需计算的同时,也支持 IT 组织对 (数据) 整合、业务持续性和安全的直接需求。这种体系结构让 IT 管理者可以配备对其目前商业目标提供最佳支持的技术,并且可以高效地引入未来的服务和应用。
Cisco 企业数据中心网络体系结构的关键部分之一是让 IT 环境得以运转的物理设施——电源设备、冷却设备、物理支架、布线、物理安全和防火措施。业界的一些企业,包括 APC ,用术语“网络关键物理基础设施”( NCPI )来概括这套设施:
•  电源 设备 ——供电基础设施包括楼宇电力供应入口、主配电设备、发电机(组)、不间断电源( UPS )供应系统和电池、过电压保护、变压器、配电盘,以及断路器。
•  冷却 设备 ——数据中心的散热系统,包括机房专用空调机组( CRAC )及其相关子系统(制冷装置、冷却塔、冷凝器、 风道 ( ductwork) 、泵组、 管道系统 ( piping) )以及机架级或行级制冷设备或空气分配设备。
•  布线——数据线缆用不同的材料和连接器来优化系统性能和灵活性,而系统管理则为长距离通信保持这种优化。关于电源线,在本白皮书中也有说明。
•  机架和物理结构——这些要素中最重要的是放置 IT 设备的机架结构、房间 的 物理要素(如:吊顶和活动地板),以及布线通道。
•  管理系统——要让系统可靠地运行,对所有物理组件进行监控是很重要的。管理系统包括各种系统,如:楼宇管理系统、网络管理系统、网元管理器以及其它监控软件和硬件。
•  接地——这包括普通接地网络和保护数据中心设备不被静电放电损坏的接地设备。
•  物理安全和防火措施——这里所说的子系统是指室内和机架级的物理安全设备以及火灾隐患检测 /排除系统。
如果按照传统方法将以上要素单独 落实 ,得到的将是一个复杂而且无法估量的系统,其组件并不能协同工作。对这些组件的管理工作也变得冗杂,因为必须将各种不同的管理系统拼凑到一起来,即使这样可能都无法为可靠关键业务操作提供必需的完全监控。
然而,如果这些要素被整合到一个由全局系统管理系统支持的完善的端对端系统中,该系统将会提供支持 Cisco 企业数据中心网络体系结构所需的必要基础设施。
数据中心的供电问题和不间断电源 (UPS)问题
如今的 IT 系统出现了一些在三十年前研发现代数据中心供电原理时无法预见到的新供电问题。专家提出了五个解决目前供电系统问题的基本要求,供电系统应该:
1. 是 一个模块化的、能方便发展并适应不断变化的供电需求的供电系统。系统需求很难预测,而且大多数系统都过于庞大。研究表明,现在的标准数据中心利用率还不到其基础设施实际能力的 50% 。产业前景预测也显示了不断攀升且不可预计的功率密度需求,而新的数据中心必须符合至少未来 10 年内的需求。
2. 采用 能减少或简化规划和定制设计的一种预先设计组件的标准供电解决方案,以加快工作进度。传统供电系统的规划和独立设计需要 6 至 12 个月,与大多数企业的规划期比起来过于漫长。设计耗费时间、价格昂贵且是后续质量问题的根源之一,这让后期安装的扩展和修改变得非常困难。
3. 是 一个具有防错功能且能减少单点故障以增加系统可用性的供电系统。根据 Uptime Institute 提供的信息, 40% 的宕机时间都是人为故障造成的。另外,传统 不间断电源供应 系统使 IT 设备负载过高,以至于需要使用更多断路器来模拟单点故障。
4. 是 一个提供机架级和电源级供电监控的管理系统。服务器间的动态功率变化以及机架级的持续变化、调整的负载,会引起意外的超负荷和机架过热情况。随着每个机架的功率密度不断提高,这些问题只会越来越严重。
5. 是 一个使用标准化、可热交换和 用户 耐用的 模块以减少平均修复时间( MTTR)的供电系统。在传统系统中,没有随时可用的备用部件,诊断和修复都需要进入系统操作。这些系统太复杂了,所以技术服务人员和维护人员往往会在操作和维护系统时犯错或中断放弃。
为满足以上要求,必须对现在的设计思路进行一些改进。供电设备的技术和设计,以及如何测定数据中心的供电情况,都需要改进。对供电系统组件的集成工作应从目前惯用的独立系统设计的设计思路转变为采用预先设计甚至预先生产的解决方案。
UPS 系统设计配置
从楼宇的市电电源配电给数据中心的临界载荷是 UPS 系统设计的五种配置之一。为特定应用选择哪一种配置,取决于可用性需求、风险承受能力、数据中心负载类型、预算以及现有供电基础设施。很多因素都会影响系统的可用性,包括人为故障、组件可靠性、维护安排和修复时间。在很大程度上来说,因素对整个系统可用性的影响,取决于该系统选择哪种配置。表 1 列出了五种配置以及其相应的可用性排名、 “ 等级 ” 和成本。
表 1. UPS 配置可用性与成本
UPS 配置 描述 可用性排名 等级 * 每套机架所需费用( US$ )
容量 (N) 单一 UPS 模块或一组并联 UPS 模块 1 = 最低 等级 Ⅰ 13,500 至 18,000 美元
串联冗余 正常情况下由一个主要的 UPS 模块为负载供电;一个辅助的(“独立”) UPS 为主 UPS 模块的静态旁路供电 2 等级 Ⅱ 18,000 至 24,000 美元
并联冗余( N+1 ) 多个并联的容量相同的 UPS 模块共用一条输出总线 3
分布式冗余 三个或多个具有独立输入和输出电路的 UPS 模块 4 等级 Ⅲ 24,000 至 30,000 美元
双总线系统
(2N, 2N+1)
两条完全独立的供电线路,每条都可以独立支持负载 5 = 最高 等级 Ⅳ 36,000 至 42,000 美元
* “等级”根据由 Uptime Institute ( www.upsite.com ) 定义的特定目标来划分系统可用性。
计算数据中心的功率需求
除了选择 UPS 配置方案,计算数据中心的电力需求也是必要的。这就需要了解制冷系统、 UPS 系统和 IT 负载所需的电量。虽然这些元素的功率需求可能实际上相差很多,但是如果已经确定了已规划 IT 负载的功率需求,就可以准确估计出这些元素的功率需求。除了估计电力线路的容量,这种计算还可以用于估计备用发电机系统的功率输出容量。
表 2 是一张数据中心功率需求的合理估算的数据表。一旦确定了电力线路的容量大小,就可以在有资质的设备系统提供商(如果是大型数据中心,则是咨询工程师)的帮助下,开始规划工作。
表 2. 数据中心功率需求数据表
项目 所需数据 计算 合计( kW )
功率需求——电力
临界载荷—来自 APC 网站的估算计算器值 每个 IT 设备的额定功率 ( 计算器总 VA 值 x 0.67)/
1000
#1 ____________kW
对于估算计算器中没有列出的设备,临界载荷—铭牌 合计 VA 值(包括消防、安全和监控系统) ( 合计 VA 值 x 0.67)/1000 #2 ____________kW
未来的负载 每个预期 IT 设备的铭牌 VA 值 [( 未来设备的累计 VA 额定值 )x 0.67]/1000 #3 ____________kW
由于临界载荷变化导致的峰值功率下降 稳定状态临界载荷的总功率下降值 ( #1 + #2 + #3 ) x 1.05 #4 ____________kW
UPS 功率损耗和电池充电 实际负载 + 未来负载 ( #1 + #2 + #3 ) x 0.32 #5 ____________kW
照明设施 与数据中心有关的地板总面积 0.002 x 地板面积 ( 平方英尺 ) 或 0.0215 x 地板面积 ( 平方米 ) #6 ____________kW
用于满足电源需求的总功率 上述 #4 、 #5 和 #6 的总和 #4 + #5 + #6 #7 ____________kW
功率需求—制冷
用于满足制冷需求的总功率 上面 #7 中的总和 对于制冷机系统 #7 x 0.7
对于 DX 系统 #7 x 1.0
#8 ____________kW
总功率需求
用于满足电源和制冷需求的总功率 上面 #7 和 #8 中的总和 #7 + #8 #9 ____________kW
估算电力线路容量
满足 NEC 和其他规范组织的需求 上面 #9 中的总和 #9 x 1.25 #10 ____________kW
线路入口处提供的三相交流电压 交流电压   #11 ____________kW
需要从供电公司获取的电力容量(以安培计) #10 中的总和以及 #11 中的交流电压 (#10 x 1000 ) / (#11 x 1.73 ) ____________ 安培
估算备用发电机容量(如果可用)
需要备用发电机的临界载荷 上面 #7 中的总和 #7 x 1.3* #11 ____________kW
需要备用发电机的制冷负载 上面 #8 中的总和 #8 x 1.5 #11 ____________kW
所需发电机的容量 上面 #12 和 #13 中的总和 #12 + #13 _____________kW
* 1.3 变量适用于使用功率因数完全修正后的 UPS 。如果使用带有输入谐波滤波器的传统双转换 UPS ,则必须乘以 3.0 。
数据中心的冷却
自 1965 年以来,数据中心的冷却设施设计只有过很少的改动。这使得与冷却有关的问题日渐突显,尤其是在高密度计算出现以后。目前的冷却系统都必须符合表 3 中列出的五种关键要求。
表 3. 冷却系统的五种关键要求
要求 描述
可扩展性和适应性 冷却系统的需求很难预测,并且,为了满足未来的需要,冷却系统体积普遍较大,因为很难在现有运行空间中加强冷却能力。设备负载常常在不知道冷却系统是否受到影响的情况下悄然改变。
标准化 客户定制设计是一项费时、高成本的工作,并且是后续质量问题的主要根源之一,因为典型的安装工作会涉及到一大批供应商。系统的规划和特别设计需要 6 至 12 个月时间,跟大多数企业的规划期相比,这个时间 过于 漫长。而从特别设计的系统中获得的经验又很难应用到其它系统,因为特别的解决方案会出现特别的问题。
简单化 复杂的冷却系统因为人为故障而发生宕机的可能性要高得多,尤其是在修复工作复杂而且费时的情况下。此外,在处理定制的冷却解决方案时要规划和校验冗余也比较困难。
智能化 机架的上下温差可能高达 18ºF (10°C) ,这会给单个 IT 设备带来意外的压力,致使设备过早损坏。
管理 传统冷却管理系统报告的数据通常与实际的故障征兆关系甚微,很少会提供对错误诊断有帮助的信息。其冷却性能数据通常不是统计于单个的 CRAC 单元,因此无法深入了解系统的整体性能。
同供电系统一样,要解决冷却系统的问题,需要对现在的设计思路进行一些改进。这包括冷却设备技术上和设计上的改进,以及如何测定数据中心的冷却要求。冷却系统组件——特别是空气分配和返回系统——的标准化和集成化将极大地提升数据中心的可用性。
适度冷却与精确冷却
当今的技术室需要精密、稳定的环境,以便高敏感度的电子设备达到最佳运行状态。 IT 设备会产生不寻常的的集中热负荷,同时,其又对温度和湿度的变化非常敏感。标准空气调节系统并不适合数据中心使用,会造成系统关闭和组件故障。
设计条件应该在 72 ~ 75°F (22 ~ 24°C) 之间,相对湿度 35 ~ 50% 。不利的环境条件极具破坏性,温度的快速波动也会对 IT 设备造成不良影响。之所以硬件设备不处理数据也要一直通电,这是原因之一。精确空气调节系统用于长期将温度变化保持在 1°F (0.56°C) 之内,湿度变化保持在 3 ~ 5% 之内。而普通的“适度冷却”系统,则用于在夏季 95°F (35°C) 和湿度 48% 的外界条件下,使室内保持 80°F (27°C) 的温度和 50% 的湿度。数据中心环境若维护不善,会对数据的处理和存储操作造成负面影响:
•  高温或低温——高温、低温或快速变化的温度可能使数据处理崩溃并造成整个系统关闭。温度变化可能改变电子芯片和其它板卡组件的电子、物理特性,造成误操作或故障。这些问题可能只是暂时出现,也可能持续数日。不过即使是暂时出现的问题,也可能难于检测和修复。
•  高湿度 —— 高湿度可能会造成磁带和表面变质、磁头损坏、机架结露、腐蚀、纸张处理问题、造成组件和板卡故障的金银 脱离 等问题。
•  低湿度——低湿度在很大程度上增加了静电放电的可能性,这会破坏数据并损坏硬件。
精确空调系统的设计是为了进行精确的温度和湿度控制。精确空调系统具有方便的服务、系统灵活性和冗余性,可保证数据中心常年 24 小时正常运行。
计算数据中心的冷却需求
估算精确冷却系统的冷却容量需要了解 IT 设备和数据中心里其它热源的发热量。发热率的常用度量单位包括 BTU (英国热量单位) / 小时、吨 / 天和瓦特。不同度量单位的混用给用户和规则制定者造成了很多不必要的混淆。令人欣慰的是,全球范围内的标准化组织都倾向于使用统一的标准单位:瓦特 (W) 。 BTU 和吨(指冰的冷却能力)这两个古老的术语将逐渐退出历史舞台。
IT 设备通过数据线传输的能量可以忽略不计。因此,交流电源干线所消耗的能量基本上都会转换为热量。( PoE 设备与远程终端的数据传送可能会消耗多达 30% 的能量,但是本白皮书为简化问题,假设所有能量都消耗在本地设备上。)这样一来, IT 设备的 发热量 就可以简单地等同于该设备的电力 消耗量 (均以瓦特为单位)。更简单地说,系统总发热量(即冷却需求总量)即为各组件发热量的总和,包括 IT 设备和其它项目,如 UPS 、配电系统、空调设备、照明设施以及人员。不过,这些项目的发热率可以通过简单的标准化规则轻松测算出来。
UPS 和配电系统的发热量由两部分组成:固定的损耗值和与运行功率成正比的损耗值。对于不同品牌和型号的设备,它们的这两部分热量损耗是十分一致的,因此可以比较准确地估计它们的发热量。照明设施和人员所产生的热量也可以用标准值很快估算出来。需要用户指定的变量,只有少数极易获取的数值,如地板面积和电力系统的额定功率等。
虽然空调设备的风扇和压缩机会产生巨大的热量,但是这些热量都被排放到室外,不会增加数据中心内部的热负荷。然而,这些不可避免的能量损失会降低空调系统的效率,如果空调系统比较庞大,则这部分损失在计算时也应加以考虑。
可以根据数据中心中各项设备的发热量来进行详细的热量分析,不过利用简单规则而进行快速估算的结果也是在复杂分析结果的允许误差范围之内。这种快速估算法的优势还在于,不具备专业知识或未经过专业培训的任何人都可胜任这一工作。根据表 4 中的数据,可以迅速可靠地确定数据中心的总的热负荷。如果数据中心的墙壁或屋顶受到强烈的日照,或者还有其它的环境热量释放源,则应由 HVAC 咨询师来评估这些热源如何影响整个热量需求。
表 4. 数据中心散热量计算数据表
项目 所需数据 散热量计算 散热量分类汇总
IT 设备 IT 设备总负载(所有 IT 设备电源输入功率之和) 等于 IT 设备总负载功率(瓦特) ___________W
带电池的 UPS 供电系统额定功率( UPS 系统的额定功率,不包括冗余模块) (0.04 x 电源系统额定值 ) +
(0.06 x IT 设备总负载功率 )
___________W
配电系统 供电系统额定功率 (0.02 x 电源系统额定值 ) +
(0.02 x IT 设备总负载功率 )
___________W
照明设施 地板面积(单位:平方英尺或平方米,换算为瓦特) 2.0 x 地板面积(平方英尺),或 21.53 x 地板面积(平方米) ___________W
人员 数据中心最大人员数,换算为瓦特 100 x 最大人员数 ___________W
合计     ___________W
大型节点环境的制冷
随着高密度服务器 (Blade server) 技术的采用,空气分配和冷却能力方面又出现了新问题。因为高密度服务器将电源和冷却需求集中在一个 小型因数中 ,数据中心设施面临着服务器集群提出的新问题。表 5 提出了对这类环境进行制冷的五种建议方法。
表 5. 大型节点环境制冷方法
方法 描述
分散负载 设备室的供电和冷却能力达到最大设备数以下的平均值,并且通过拆分多个机柜中设备的方法来分散机柜上那些负载超过设计平均值的设备。
运用规则借用闲置冷却能力 设备室的供电和冷却能力达到最大设备数以下的平均值,并且运用规则使高密度机柜能够借用周围机柜的闲置冷却能力。
补充制冷 设备室的供电和冷却能力达到最大设备数以下的平均值,并且根据需要使用补充的冷却设备去冷却密度超过设计平均值的机柜。
特定高密度区域 设备室的供电和冷却能力达到最大设备数以下的平均值,在具有高冷却能力的房间内划出一块特殊限制区域,只把高密度机柜安放在那里。
全局制冷 设备室中的每个机柜都具有满足最大机柜密度的供电和冷却能力 。
空气分配系统配置
在设计数据中心的冷却系统时,其目标是创建一个从冷空气源头到服务器通风口之间的洁净通道。根据性能、成本和实施难度不同,有九种基本方法可以提供 IT 设备的进出空气流。而空气的供应和返回都有三种基本方法来完成 CRAC 装置和负载之间的空气输送:( 1 )洪灌方式,( 2 )局部管道方式,( 3 )全管道方式。表 6 图解了九种可能的组合方式。 APC 第 55 号白皮书,“ 关键设备的空调结构选择方案 ”描述了这九种空气配送方法及其各自的优点。
表 6. 冷却系统类型
  洪灌方式回风 局部管道方式回风 全管道方式回风
洪灌方式送风      
小型局域网机房(功耗低于 40kW ):
· 可冷却功耗最高为 3kW 的机架
· 安装简单
· 成本低
一般用途:
· 可冷却功耗最高为 3kW 的机架
· 不需要活动地板
· 成本低 / 安装简单
适合解决高热机架问题:
· 可冷却功耗最高为 8kW 的机架
· 不需要活动地板
· 可提高 CRAC 装置的效率
局部管道方式 送 风  
活动地板环境
 
活动地板环境
 
活动地板环境
 
硬地板环境
 
硬地板环境
 
硬地板环境
一般用途:
· 可冷却功耗最高为 3kW 的机架
一般用途:
· 可冷却功耗最高为 5kW 的机架
· 高性能 / 高效率
适合解决高热机架问题:
· 可冷却功耗最高为 8kW 的机架
· 可改型(视厂商而定)
全管道方式 送 风      
活动地板环境
 
硬地板环境
一般用途:
· 有垂直气流的机柜 /大型机
· 适合活动地板静压室环境
一般用途、大型机:
· 有垂直气流的机柜 /大型机
· 适合活动地板静压室环境
适合解决高热机架问题:
· 可冷却功耗高达 15kW 的机架
· 需要专门安装
使用高密度服务器所致冷却问题的十种最佳解决办法
一旦冷却系统设计安装完成,为保证系统的高性能,进行后续检查工作是很重要的。更重要的是,要维护从服务器排出的热空气到 CRAC 装置的回流空气管道之间的洁净通道。很多因素都会降低现有冷却系统的运作效率和功率密度能力。表 7 列出了十种最佳解决方法,按执行方式由简到难、成本由低到高的顺序排列。
表 7. 高密度服务器部署所致冷却问题的十种最佳解决办法
方法 描述
进行“健康检查” •  检查总的冷却能力,确保数据中心的 IT 设备对冷却的需要没有超过总的冷却能力。
•  检查所有风扇和报警装置是否运行正常。确保过滤器的清洁状态。
•  检查冷却器和 / 或外部冷凝器、泵送系统和初级冷却回路的状况。
•  检查数据中心通道中重要位置的温度。
•  记录每套机架底部、中部和顶部的空气入口处的温度,并与 IT 设备生产商的推荐值进行比较。
•  检查可能影响冷却性能的机架间隙(没装挡板的闲置机架空间、没装挡板的空刀片插槽、未封闭的电缆开口)或多余的缆线。
启动冷却系统维护制度 应该实行定期维护制度,以达到冷却设备生产商推荐的指导方针。
在机架中安装挡板,实行电缆管理制度 机架内未被利用的纵向空间让设备底部流出的热空气可以通过捷径回到空气入口处,致使设备不必要地升温。
清除地下障碍物并封闭地板间隙 地下障碍物,如网络和电缆,会阻碍空气流动并削弱对机架的冷气供应。
将高密度机架分开 如果高密度机架紧密聚集在一起,则大多数冷却系统的冷却能力都不够用。
采用热通道 / 冷通道布置 如果机架空气入口都朝向一个方向,则上一排机架排出的热空气在通道中将和供应空气或室内空气相混合,然后进入到下一排机架的前面。
将 CRAC 设备与热通道对齐 当 CRAC 设备与热通道对齐时,可达到最佳冷却效率。在这种情况下,热空气可以直接流入回风管道,而很少有机会与冷空气流混合。
管理地板通风孔 机架气流和机架布局是影响冷却性能的关键因素。送风和回风通风孔的位置如果不当,会使得热通道 / 冷通道设计的种种优点丧失殆尽。
安装气流辅助装置 在有足够平均冷却能力,但却存在高密度机架造成的热点的场合,可以通过采用有风扇辅助的设备来改善机架内的气流,并可使每一机架的冷却能力提高到 3kW ~ 8kW 。
安装自给高密度设备 在功率密度接近或超过每机架 8kW 的场合,需要将冷空气直接供应到机架的每一层(而不是从顶部或底部),以便使从上到下的温度保持一致。
以上方法可以使得数据中心能够在其峰值效率运行,以保证其可以胜任对商务过程的支持,并预防未来可能发生的问题。前八种方法可帮助典型数据中心在 其原始 设计的界限内正常运行。最后两条是对如何扩充典型数据中心冷却密度设计界限的建议(无需进行较大的重新设计和建造),方法是通过安装“自给”冷却方案,以便满足高密度服务器应用场合的需要。
数据中心的布线问题
布线拓扑结构
数据中心拥有大量的设备,网络结构复杂,所以必须要有布线拓扑结构。由于有在 1991 年首次发布的 ANSI/TIA/EIA-568 标准,网络设计师对结构化布线很熟悉。 TIA (电信行业协会)不久前又通过了一项名为 TIA-942 “数据中心的电信基础设施标准”的标准。该标准用图 1 所示的拓扑结构来描述数据中心。下面列出这种拓扑结构中用到的基本要素。
水平布线和主干布线
如图 1 所示,有两种布线类型:主干布线和水平布线。主干布线连接总配线区( MDA )和水平布线区( HDA )——包括电信室和引入室( ER )。主干布线由主干电缆、主交叉连接、水平交叉连接、机械终端、接插线或用于主干对主干交叉连接的跳线组成。水平布线将设备连接到 MDA 或 HAD 中的连接。水平布线由水平电缆、机械终端和接插线 / 跳线组成,还可以包括一个区域插座。
ER MDA 中的交叉连接
接入电缆和数据中心电缆以某种形式在交叉连接处汇合。理想状态下,它们都接入同一个实际上成为“分界线”的交叉连接 阵列 (lineup) 。将连接到所有接入提供商的这些“分界线”集中摆放,通常称为“ meet-me room ”。不过,部分接入提供商更愿意将电缆接入自己的机架。分界交叉连接通常摆放在引入室,如果数据中心没有引入室,则摆放在总配线区。
总配线区 MDA 中的主交叉连接
根据 TIA-942 标准,每个数据中心都必须有一个总配线区,总配线区应配备核心以太网交换机与路由器、可能的核心 存储区域网络 ( SAN ) 交换 设备 、 PBX 设备、网络管理设备以及接入设备。总配线区还包括主交叉连接( MC ),用于在主干布线和核心交换机与路由器之间建立连接。因为主干布线通常采用光纤,所以主交叉连接必须设计为可处理光缆、接插线和 配线架 。根据安全、外观和 电缆 管理的不同需要,交叉连接 配线架 和网络设备被安放在机柜内或机架上。
电信室、 HDA MDA 中的水平交叉连接
水平交叉连接( HC )是一个大型的接插区域,水平电缆从这里被分配到各个设备。一般来说,水平交叉连接的主要任务是提供一个将水平电缆连接到接入交换机端口的装置。 TIA-942 标准还给出了一种光缆的集中布线方法的指导,在这种方法中,水平电缆被直接连接到多光纤主干电缆,而不是交换机。
区域分配区( ZDA )中的区域插座或整合点
通常,将一组水平电缆外接到公用终接点比较有利。采用新设备后,水平电缆也可以通过区域插座连接到网络上。与固定到设备机柜的设备插座相比,区域 布线 提供更大的灵活性。区域分配区用于未来使用的“ precable ”区域,或简化频繁的重配置。
区域分配区中的插座
很多数据中心的设备分配区的大部分都被服务器机柜中的服务器占据。水平电缆通常外接到机柜,连接到 配线架 上, 配线架 即被称为“插座”或“互连”,如图 1 所示。
TIA-942 标准认可图 1 中拓扑结构的某些变化形式。例如,小型企业数据中心可以将接入室、水平布线、总配线区和电信室合并为计算机室内的一个区域。另外,大型互联网数据中心可以拥有两个接入室(保持冗余度)或者兼容多种接入服务商,也可以将总配线区和 水平布线区分别划入不同的房间或笼内以增加安全度。具体的拓扑结构依数据中心规模、可扩展性、可靠性等因素而定。
电缆介质
对于现在的数据中心 LAN 和 SAN 环境, “ 交换机 到服务器 ” 连接要求布线具有高性能和灵活性,并且具有适应未来高带宽应用的剩余空间(见表 8 )。千兆位以太网连接具有广泛的支持基础:交换机端口、网卡、 超五类非屏蔽双绞线( Category 5e UTP )和六类非屏蔽双绞线( Category 6 UTP )。然而,以太网在不断地发展,许多组织都在关注万兆位以太网在支持新应用要求方面的优势。网络规划者们应该仔细考虑如何运用这些新电缆技术,以将带宽优势融入到电缆基础设施中。
表 8. 电缆介质类型
电缆介质 连接类型 参数 最小弯曲半径 最大数据速率 最大传输距离 * 公共应用
超五类双绞线 RJ-45 0.193 英寸 1.00 英寸 1 千兆 / 秒 100 米 老式局域网
六类双绞线 RJ-45 0.260 英寸 1.04 英寸 10 千兆 / 秒 55 米 IP 电话
增强 六类双绞线
第七类双绞线
RJ-45 0.310 英寸 1.24 英寸 10 千兆 / 秒 100 米 高端工作站
Infiniband ( CX4 双轴) XENPAK 0.371 英寸 4.00 英寸 10 千兆 / 秒 15 米 服务器集群
多模光纤( OM3 ) LC 、 SC 、 ST 、 FC 、 FJ 、 MPO 、 XENPAK 0.059 英寸 2.00 英寸 10 千兆 / 秒 220 米 存储区域网
单模光纤( OS1 ) LC 、 SC 、 ST 、 FC 、 FJ 、 MPO 、 XENPAK 0.118 英寸 2.00 英寸 10 千兆 / 秒 40 千 米 广域网
* 可以保持最高数据速率的最大传输距离
超五类非屏蔽双绞线
千兆以太网的出现让这种电缆普及起来。因为其使用的是 IEEE 最早期的标准,所以新的电缆在数据传输速度上已超过它。如果您的商业计算仅限于文字处理和简单的数据表格,并且不打算彻底改变这种现状,那么超五类非屏蔽双绞线的系统可能就足够了。
六类非屏蔽双绞线
六类非屏蔽双绞线适用于能支持多种服务类型的具有灵活性的基础设施。它提供的带宽远大于千兆的速度,并且在 10 Gbps 的最高数据速率下最大传输距离为 55 米。对于将服务器阵列连接到附近的水平布线区的小型计算机室或模块化数据中心,可以设计 55 米或更短的水平布线线路。但是许多中到大型的数据中心需要更长的线路。例如,可能需要将所有联网设备整合到一个总配线区,由总配线区分配电缆到大量的托管或 第三方托管 (collocation) 用服务器机柜。
增强 六类非屏蔽双绞线
当电缆铺设长度大于 55 米时, UTP 技术中唯一能达到以 10 Gbps 的速率传输 100 米的,是新一代的称为“ 增强 六类”( C6A )的电缆。随着 802.3 标准的发展, IEEE 打算 用双绞 线 铜缆 通过 四 个 连接器 ( 4-connector) 、 100 米的渠道 支持 10 Gbps 的数据传输速率 。该标准要求将六类电缆的参数从当前的 250 MHz 扩展到 500 MHz 。要支持 10 Gbps 的数据传输速率,必须设计一种新的电缆,增加电缆束中的导线间距,并且设计新的连接头以免电缆的改进成果 在传输途 中丧失。万兆位以太网系统中的任何组件都是很重要的:插孔模块、铜缆、配线架、接插线都必须经过精密调谐,以达到 10 Gbps 的速度。
InfiniBand CX4
虽然 InfiniBand 与 CX4 类似,但是 CX4 已做过小小的改进,以更好地处理串扰和回波损耗。这里将两种介质一起讨论,因为他们都用 24 AWG 的电缆以传输 15 米为目标,并且使用相同的连接头配置。这种电缆有屏蔽层,内含 8 对双轴屏蔽线。连接头和电缆都是由 InfiniBand Trade Association 依据 InfiniBand 标准研发。
虽然 15 米的距离不适合进行长距离传输,但 InfiniBand 已为它找到了新用途:服务器集群和网格计算。这类应用要求用短距离传输以便连接多个服务器,要求 10 Gbps 的带宽以便建立强大的服务器环境。 InfiniBand 通过质量服务( QoS )机制加强了应用集群间的联系,这对优先处理的事务安排有所帮助。虽然 InfiniBand 并不适合按 TIA-942 标准下结构完整的布线线路,但是它在服务器集群方面的用途已被 Cisco 、 IBM 等处于 行业领先地位的公司所认可并频繁使用。
InfiniBand 连接线还可用于 SAN 中,代替昂贵的与光纤通道一起使用的主机总线适配器( HBA )。基于从布线拓扑结构中撤下 HBA 的优点,应对照光纤通道的带宽和可靠性来进行测量。
光缆
如表 8 所示, IEEE 802.3 标准提供一系列的在光纤上进行 10-Gbps 传输的可选方案。公用的纤维光学传输装置可分为以下三大类:

•  发光二极管( LED ) ——LED 价格便宜,但是仅限于低于 1 Gbps 的低速传输。
•  长波激光器 —— 这种激光器在波长 1310 ~ 1550 nm 之间工作,速度和成本都远远高于 LED 。
•  短波激光器 —— 垂直腔 面 发光 型半导体激光器( VCSEL )技术是作为低成本激光器的生产方法被开发出来的。用于 10 Gbps 的 VCSEL 目前被归类为短波激光器,其工作波长为 850 nm 。针对 10 Gbps 的下一步发展将是长波( 1310 nm ) VCSEL 。
以上三种光纤类型加上短波激光和长波激光技术,为用户在平衡距离和成本方面提供了多种选择。
•  多模光纤( OM3 ) ——OM3 光纤被归类为激光优化是因为电缆生产商的产品必须百分之百通过检测,因为只有最好的光纤才有资格被划分为 “ 激光优化 ” 类。有效模式带宽等于或大于 2000 MHz/km 的光纤才能被定级为 OM3 。 差分模延迟( DMD )规范对激光优化类光纤仍然有效,但是 OM3 类别在 DMD 上作了一些限制。由于每个脉冲信号都通过光纤传送,所以其初始形态保持得比较好,接收器可以判断接收到的脉冲信号代表 0 还是 1 。更先进的误码率( BER )检测现在用于测算脉冲信号被误解的频率。为数据中心配置多模光纤时,强烈推荐使用 OM3 类光纤。
•  单模光纤( OS1 )——进行 10 Gbps 传输的最后一个选项是单模光纤。 10GBASE-LR 和 10GBASE-ER 是基于标准单模光纤和长波激光器的,所以其最大传输距离远远长于 OM3 类光纤。这类技术更为昂贵,是因为它们使用边缘发光长波激光器。 10GBASE-LR 和 10GBASE-ER 主要用于跨校园或不同建筑之间的远距离应用。
数据中心的实际光纤部署
商业应用会产生大量的数据,必须放入随时可以访问、安全并且非常可靠的存储系统。 SAN 满足以上要求,通过整合策略,将 SAN 结构变成一种灵活、可扩展且能很快适应数据更改要求的方法。 SAN 的连接由光缆支持,因此在每一个放置或将要放置现在或将来需要接入 SAN 的应用的设备区,布线时都应提供光纤接口。推荐的一种策略是:为每个服务器机柜铺设一定数量的光纤对——可以是 12 、 24 或 48 ,视最大计划需求而定。计划需求量由服务器类型、功率 / 发热负载和计划 SAN 接入数量决定。同样,光纤对也必须从 SAN 交换机一直铺设到存储设备。
在建设初期,配线可以铺设到每个机柜和现场终端。场地终接是一项复杂、费时而且杂乱的工作,所以许多数据中心宁愿采用预先安装终接好的中继电缆或即插即用光纤解决方案。即插即用解决方案的配线是厂家已经终接到 MPO 或 MTP 连接器上的,一般每个连接器接 12 条光纤。安装者只需简单地将 MTP 电缆插入水平交叉连接和设备插座上的 LC 或 SC 连接器即可。
电缆通道
电缆基础设施应被视为一项需要具备功能性和保护性的容器的投资。每次增加新的服务器机柜都把数据电缆丢在活动地板面层下的水泥板上的做法,现在已经不被接受了。负责发展和修改的 IT 专业人员,依赖铺设良好的、灵活的、易接近的电缆通道。关键应用要求保护电缆不受突然损坏或长期老化,不断增加的热负荷也需要仔细考虑,以避免通道妨碍制冷。在规划电缆通道时并没有通用的解决方案。设计者必须考虑将通道置于地面下还是地面上的问题。表 9 中的标准说明了电缆通道该如何铺设。
表 9. 电缆通道的铺设标准
标准 描述
结构上的问题 · 利用现有的——活动地板、天花板夹层和房间结构的完整性决定了你应该如何设计你的电缆通道。
· 条理性与直观性——将通道分为几层,以便分开供电和数据电缆。
· 灵活性——允许增减机柜。
· 维护通道与对应设备数量的比例 ——一条通道将负责供应两排地下通道的设备 ; 对于架空的通道,一般一条通道负责一排设备机柜。
容量 · 空间最大占用率为 50% ——计算出的空间占用率达到 50% 时,由于电缆间的空间、随机摆放的物品等原因,线架实际已被占满。
· 电缆托架占用率 25% ——最大的电缆通道占用率应该不超过 25% ,以便为将来的发展留出空间。这个比率适用于电缆托架、铁线篮、梯架和硬电缆托架。
电力线与数据线的分离 · UTP 电缆和未屏蔽供电电缆—— 100 ~ 600 mm ( 4 ~ 24 英寸)
· UTP 电缆和已屏蔽供电电缆—— 50 ~ 300 mm ( 2 ~ 12 英寸)
可达性与安全性 · 平衡措施——在允许更改电缆基础设施的同时,保护电缆不受外部损坏。
火灾危险 · 具有管辖权的当地管理机构——该机构在从阻燃电缆到防火措施的可行性方面有最终决定权。
光纤保护 · 40 ~ 60 % 占用率——铜和光纤具有不同的特性,所以应该采用不同的电缆通道策略。
数据中心的机架和机柜问题
选择机架的标准
对于用于安装设备和接插面板的开放式机架和封闭式机柜,数据中心设计者有很多种选择,每一种都有其优点和缺点。与电缆通道一样,这也没有通用的解决方案。关于宽度,服务器、交换机和接插面板的规格为 19 英寸;引入室中的载波设备和其它宽度更大的设备的适用规格为 23 英寸。最佳高度为 7 英寸,最大允许高度为 8 英寸。其它方面诸如地震因素、 有关瓷砖的布置 、可调整轨道、配电盘等,在标准中也作了说明。设计者应根据表 10 中列出的标准来决定选择开放式机架还是机柜。
表 10. 机架类型
机架类型 描述 最大负重 应用
双柱 开放式机架 800 磅 · 低容量交换机 / 路由器
· 配线
四柱 开放式机架 1000 ~ 2000 磅 · 高容量交换机 / 路由器
· 服务器
机柜 2000 磅 · 服务器集群
· 存储阵列
· 存储转换
电缆入口
若使用开放式机架,电缆可以轻松地从架空的或地板下的通道接入竖直线缆管理器。若使用机柜,注意要比较电缆数量和电缆入口孔的大小。带有高电缆密度的设备,如交换机和单机架服务器,可使用足够容纳上百根数据线和电源线的电缆入口孔。必要口径 A 用 40% 的占用率( 0.4 )按以下方式计算:


对于第六类双绞线,参数 D 的值为 0.25 英寸, A 的计算结果为 41 平方英寸。对于扩展六类线, D 的值为 0.35 , A 的计算结果为 81 平方英寸。
电缆管理
可以为宽敞、方便进入的 竖直 线缆管理器轻松配备机架。很多机柜没有足够的空间来容纳 竖直 线缆管理器。通常,仅有的空间就是狭窄、竖直的转角处和相邻机柜间的空隙,而这两种地方都不容易进入。前一部分提到的公式不仅适用于电缆入口孔,也适用于电缆管理器横截面积的计算。无论机柜 中是否 安装了配线架,都应该在导轨和门之间留出最少 100 mm ( 4 英寸)的高度,以便安装线缆管理器。
安全
机柜有带锁的柜门。开放式机架没有锁,但是将其置于笼内或单独的房间来保证其安全。数据中心管理员都担心有入侵者或未经授权的人员接近机房设备。对于关键应用,在设备上进行的操作应该严格依照访问规定小心控制。例如: 网络 组的技术人员有接近交换机和交叉连接设备的许可;服务器组的技术人员有服务器机柜的钥匙; SAN 组则拥有 SAN 机柜的密码。在 第三方托管 环境中,服务器租用者希望出租方提供安全的机柜和空间,以保证其它租用者不会损坏自己的设备和相关网络基础设施。
负载能力和深度
在负载能力方面,机柜和 四柱机架有一种优点。例如:某生产商的 19 英寸的标准铝机架具有 3 英寸的 支架 ,能承受 800 磅的负载。同一厂商的重型机架带有 6 英寸的 支架 ,能承受多达 1500 磅的负载。四柱机架和机柜的额定负载量可达到 2000 磅或更多。机柜可支持纵深较大的设备。大多数网络交换机都比较薄,如果符合安装说明中的允许条件,就可以放置在 双柱机架上。最佳机架式服务器纵深 16 ~ 33 英寸,大部分高 26 ~ 30 英寸,而且与 双柱机架一般不兼容,因为这会引起结构上的不稳定悬臂和可能的安全隐患。机柜和四柱机架提供后部安装轨,以增加对设备的支持和包围纵深较大的设备。安装轨应该可以调节以适应一系列的设备纵深度。
螺距
在某些情况下,保持 24 英寸的螺距来与地板相匹配是很重要的。使机架或机柜与地板相匹配让其可以使用所有地板通用的标准电缆保险装置。普通机柜宽度为 24 、 28 、 29.5 ( 750 mm )或 32 英寸。用于服务器,尤其是长服务器队列时, 24 英寸宽的是最常用的。更宽的螺距已被配电和配线应用所接受,在这些应用中,大捆电缆的管理是首要问题。配备 竖直 线缆管理器的机架尺寸大于 24 英寸的地板尺寸。
电源调节
机柜的设计便于将配电 盒 安装在纵向支持通道中。当机柜中装的是使用冗余电力供应的单机架或双机架式服务器时,必须使用带有 20 个或更多插座的长配电 盒 。有一点要注意的是,开放式机架不支持长的竖直配电 盒 。不过,根据配电 盒 宽度或机架通道宽度不同,在配电 盒 及其安装支架互不影响的情况下,在开放式机架的后部安装竖直配电盘也是可能的。一般开放式机架不带整理电源线的功能,也没有遮蔽配电盘的盖板或门。
安装轨
安装轨应该带有符合 TIA-310-D 标准的螺孔设计。机架上的这些孔一般带有内螺纹,以便安装配线架等大量的组件。然而机柜一般带有为锁紧螺丝准备的方形螺孔。将锁紧螺丝嵌入方形螺孔内并咬合到位以后,才能继续安装设备。锁紧螺丝有多种螺纹样式,包括 # 12-24 、 #10-32 和 M6 。安装轨上应该做上标记,不要遮住机架单元的边缘,而为机架单元编号则可方便安装。
电缆管理
一旦水平电缆安装完成,就应做好保护工作并且不再对其进行操作。之后的任何网络配置改变,都应通过移动水平交叉连接上的接插线来完成。这样,接插区域就成了物理层管理所关注的对象,因此,在设计接插区域时,应注意其长期的管理性、可靠性、安全性和扩展性。表 11 中列出的八种最佳管理办法可以将水平交叉连接的功能性从简单的接插区域提升为复杂的交换中心,使其能够进行电缆管理、热交换、冷却及对接插区域变化的智能追踪。
表 11. 电缆管理的最佳办法
方法 描述
包括有效的水平和纵向电缆管理 · 机架间的 竖直 线缆管理器宽度不能小于 83 mm ( 3.25 英寸);对于一行有两或两个以上机架的情况,推荐宽度为 250 mm ( 10 英寸)。
· 机架行列末端的线缆管理器宽度应该不小于 150 mm ( 6 英寸)。
在每个电缆转弯处都提供弯曲半径控制 · 备用 管理器和到电缆通道的过渡,也应设有合适的弯曲半径。
· 应使用圆角边缘的指状物将电缆导入水平或竖直线缆管理器。
充分利用可用空间 · 具有配套的角 型 配线架、竖直电缆管理器等高密度解决方案,能将更多连接集中到更小的区域中。
保护关键基础设施 · 通过机柜锁和笼子建立不同的安全等级。
拆离 电缆以允许进行热交换 · 将电缆 拆 离设备时,要考虑在需要升级或更换时,风扇部件、模块和电力供应设施应如何拆卸和重新安装。
考虑气流方式 · 将接插区域和配电基础设施设计为交互式,以使气流最大化。
对物理层更改的记录和管理 · 接插区域包含数百或数千个端口,因此为接插区域贴上标签以便技术人员快速辨认每个端口是很重要的。
使互联与交叉连接达到平衡 使用互联的理由:
· 占用空间更少
· 连接数更少,因此插入损耗较少
· 前期花费较少
· 容易进行追踪
使用交叉连接的理由:
· 损坏交换机的可能性更小
· 是交换机机柜的唯一选择
· 更高的灵活性
· 与物理层管理兼容
数据中心的接地问题
接地系统不仅仅是针对雷击的保护措施,它是一个活动的、为人员和设备提供保护的有效系统。对 有效系统性能 进行正确接地是很有必要的。没有被接地系统完全疏散的过压电,会对数据电缆产生电子干扰。这会造成错误的数据信号以及 丢包 情况,因而降低您网络的吞吐量和总效率。
根据保险行业的数据,每年因通信系统非正常接地而被雷电损坏的财产和设备价值五亿美元。 IT 产业协会( Information Technology Industry Council )称,接地是网络设备表现其可靠性能所应具备的最重要的条件。修复受损设备的组件花费实质上只是牵涉到复杂的电路板,而人力和停机时间造成的损失则更高。
电气和电子工程师协会 (IEEE) 表示,标准的三插 AC 插头接地几乎很少能有效保护网络设备不受损害。因为非正常接地导致的人员触电事故可能会给当事人造成无法估量的痛苦并带来巨大的开销。当过压电涌产生的热量在到达地面过程中遇到高阻,就会造成火灾隐患。
数据中心接地的标准

数据中心接地应遵循以下标准:
•  TIA-942 ,《数据中心的电信基础设施标准》—— TIA-942 详细说明了保证贯穿机架材料的电力连续性以及使机架和机架上安装的设备正确接地的方法。这是解决数据中心特有问题的唯一一份说明。
•  J-STD-607-A-2002 ,《 商业建筑电信接地和屏蔽要求 》——该标准关注电信设施的接地问题。它定义了一套从接入设施到电信设施主接地母线( TMGB )、再到电信室的本地电信设施接地母线( TGB )的系统。
•  IEEE Std 1100 (IEEE Emerald Book ) ,《电子设备供电和接地的 IEEE 推荐方法》—— IEEE 对如何通过 公用屏蔽网络( CBN ) 为电脑室环境设计接地结构进行了详细说明。 CBN 是一套金属组件,通过有意或无意的互联,在进行远程通信的楼宇内部起主要屏蔽和接地的作用。这些组件包括钢结构或钢筋、金属管道、 AC 供电管道、电缆架,以及屏蔽导线。 CBN 是连接到外部接地电极系统的。
数据中心接地系统的特性
接地系统的目的是为过压电涌和瞬态电压创造一条接地的低阻通道。过压电涌和瞬态电压一般由闪电、错误的电流、电流转换(开关发电机)和静电放电引起。有效的接地系统可以将这些过压电涌的不良影响降到最低。设计合理的接地系统应具有以下特性:
•  应有针对性。就是说,每个连接都应合理设计。接地系统与其连接一样脆弱。
•  应该可以通过肉眼检验。
•  应该有足够大的规模。
•  应该能够将破坏性电流引离设备。
•  数据中心的全部金属组件都应被连接到接地系统(如图 2 )。
此外,所有接地导线都应该采用铜芯;组件应采用认证测试室(如 UL )推荐的产品;并遵守当地电工规程。
为保证接地系统的长期完整性,应坚持使用压紧式连接器,而不是机械式连接器。机械式连接器用固定螺钉来固定导线,当暴露在振动环境中时(如:附近有风扇或蜂鸣设备),螺钉有可能松动。在过压电涌发生时,松动的连接会形成高阻抗而失去保护作用。而压紧式连接器已永久变形,不会因振动而松动。
在遵循接地结构时也应有逻辑顺序,例如:从设备底盘到机架,然后到数据中心接地设施,再到本地的 TGB ,本地 TGB 再接入电信设施屏蔽主干( TBB ), TBB 最后回到接地的主 TGB ( TMGB )。表 12 概述了其中的重点。
表 12. 数据中心接地的要点
要点 描述
设备底盘 · 三插接地不完全有效。
· 安装设备时一定要遵守生产商提供的接地注意事项。
机架 / 机柜的连续性 · 螺栓( bolt-together ) 机架附带的硬件并非为了接地而设计。
· 装配机架时应在螺钉下以及螺母和机架间加入 能穿透涂层的( paint-piercing )的 接地垫圈,以提供电力连续性。
· 应在侧轨背后连接完整长度的机架接地片,用螺纹型螺钉固定,以保证金属间的连接。
机架 / 机柜接地 · 用 #6 AWG 或更大的接地导线将每套机架或机柜与已连接到数据中心接地设施的接地片相连。
· 不要将机架或机柜串联。
数据中心接地基础设施 · 建立数据中心接地设施的一个通用办法是,为遍布整个计算机室的 0.6 ~ 3 m ( 2 ~ 10 英尺)的空间架设一个铜导线网。
电信设施接地排 · 用 #1 AWG 或更大导线将数据中心接地设施接入 TGB 。
· 最好使用双孔压紧式铜接线柱,因为其操作不可逆,并且即使扭曲(受到冲撞)或在振动环境也不会松动。
电信设施连接带 · 接入 TBB 时应保持导线连续性,尽量避免出现接头。
· 铺设接地导线时避免使用金属管道。
· 虽然为保证安全,大楼的钢结构和金属水管都必须接地,但这些都不能替代 TBB 。
电信设施主接地母线 · 接地主母线应连接到服务设备(供电)已接地(接地电极系统)的底座。
接地系统的例行检查
接地设施作为关键设施,应该为其制定一个计划,每年或半年进行一次全面检查。按照作业清单逐项进行检查可以及早发现潜在的问题,如:连接松动或腐蚀、标签缺失、导线被损坏 / 割断 / 拆除、新的需要连接到 CBN 的金属部件。为便于检查,接地系统应全部使用连接器、母线和导线,这样通过肉眼即可检验连接情况。
其它问题
物理安全
物理安全(即限制人员接近设备)对于保持数据中心的高效性来说非常关键。随着生物鉴别、远程安全数据管理等新技术越来越普及,传统的“通行卡 - 门卫”的安全措施正在逐渐被淘汰,取而代之的是能够进行有效身份验证并追踪人员在数据中心内和附近活动的安全系统。在购买设备前, IT 管理员都必须仔细评估他们的特别安全需求,并为他们的设备选择最合适、最经济的安全措施。
安全规划的第一步,是画一张物理设施的地图,标明需要使用不同进入规则或安全级别的区域和进入点。这些区域可能有同心或并列的边界。例如:计算机区可能会显示为一个大区域(如:楼宇周界)中的一个方块。而并列边界的例子包括会客区、办公室和公共区域。同心的区域可能具有不同的或逐渐严格的进入要求,提供越来越高的保护性,这成为“安全 等级 ”。根据安全 等级 ,靠里的区域除了受本身进入要求的保护,还要受到其它外部区域的保护。另外,闯入任何一个外部区域后,都可能会遇到下一个内部区域的进入限制。
安全规划图画好后,下一步是要制订访问规定。人员对安全区域的访问权限,主要基于其身份、目的和是否有必要进入等因素,还有各组织自己制订的其它标准。鉴别人员身份的办法主要分三大类,以下按安全性和成本由低到高的顺序排列:

•  你有什么 是指你穿戴或拿着的东西——比如一把钥匙、一张卡、一个可以挂在或附着在钥匙圈上的标记。它可以像把黄铜钥匙一样是个“哑巴”,也可以像能和读卡器交换信息的智能卡一样“聪明”。这是安全性最低的鉴别方法,因为无法保证它不被其他人使用——他人可以共享、盗用、或者丢失后被拾获。
•  你知道什么 可以是密码、代码或某个过程(例如打开密码锁、在读卡器处刷卡或键入密码进入计算机系统)。密码 / 代码代表着一种安全难题:如果为了方便记忆,则密码就很容易被猜到;如果难记,当然也会难猜——但可能密码因此会被写下来记录,这样安全性又降低了。这比上一种方式可靠,但是密码和代码仍可以共享,而且,如果写下来,还有被他人发现的风险。
•  你是谁 是指通过辨别独一无二的物理特征来进行鉴别——这是人们互相识别的一种自然方式,几乎完全可信。现在已经研究出了一系列的人类特征的生物扫描技术,包括指纹、掌印、虹膜和脸。生物测定设备总体来说很可靠,如果识别完成——就是说,一旦设备认出你来,那么几乎可以确定,那就是你。这种办法最不安全之处不在于错误识别或被冒名顶替者欺骗,而是合法用户没有被识别出的可能,即错误拒绝。
最后一步是选择最佳安全方案。典型的安全方案是采用从最外层(最不敏感)到最内层(最敏感)区域逐渐增加可靠性(以及成本)的方法。例如:进入大楼可能需要刷卡并输入 PIN 码;而进入计算机室可能需要在小键盘输入密码并进行生物扫描。在入口处使用组合方式可以增加该处的可靠性;对每一个重要级别使用不同的方式可以增加内层的安全性,因为每一层都有其自身的保护方式和必须先进入的外层的保护。
实施以上三种鉴别方式为基础的解决方案的技术已经存在,而且价格会越来越便宜。将对风险容限的评估与对访问要求和可用技术的分析相结合,即可设计出一套让保护性和成本真正达到平衡的有效的安全系统。
消防
根据美国国家消防协会的数据, 2001 年一共发生了 125,000 起非住宅火灾,损失总计 32.31 亿美元。行业研究显示,因火灾关闭的公司中,有 43% 没有再重新开业,而重新开业的那些公司中有 29% 在三年内就倒闭了。数据中心的火灾一般由供电问题引起,来源包括配线管道、活动地板和其它隐蔽区域,这也是不推荐数据中心和网络房间使用活动地板的原因之一。火灾的起因还包括纵火、同谋破坏和电路事件,比如闪电和过压电涌。跟数据中心的其它关键系统一样,防火措施也必须具备冗余性和容错性。
对火灾的预防比任何类型的火险检测或灭火设备都提供更多的保护。如果火灾隐患无法在某个环境中滋生,那么这个环境就不会有火灾威胁或损害。如果确实出现了火险,那么下一步就是将它检测出来。先进的探测器可以在火险初期就检测出来,并且通知中央控制中心,控制中心再通知人员和消防系统。在数据中心,防火系统的主要目的就是控制火灾的发生,以免影响商业流程和威胁人员安全。
数据中心的火灾防护解决方案有三个主要目的:( 1 )识别火灾的发生,( 2 )将火灾发生的情况通知给在场者和合适的负责人,以及( 3 )控制火灾,如果可能的话熄灭火灾。要让数据中心 24 小时正常运行,需要遵守以下火灾检测 / 熄灭要素:
•  线性热量检测(探热电缆)
•  智能点式探测器
•  空气取样烟雾探测器
•  便携式灭火器
•  全覆盖式洁净气体灭火系统
•  拉式火警箱、报警装置和控制系统 
在活动地板上下的所有电线盒和电线通道都应布置线性 热量检测电缆。与其它火警探测器一样,警报器不应该直接触发灭火系统,而是应该提交控制系统拉响警报。要进一步避免灭火装置的意外触发,还应该在活动地板上下布置空气取样烟雾探测器系统,在全淹没式灭火系统开始喷水之前,必须两个探测系统都进入警报状态。我们还推荐,在每个 CRAC 单元入口和出口安放智能点式探测器。控制系统应该能够管理所有这些探测器,并且保证没有任何一个警报器能触发灭火装置。

有许多可用的卤代烷替换物洁净气体系统,为设备空隙、天花板夹层、从蓄水池到喷洒头之间的通路以及环境友好提供了多种替换方案。如 FM-200 就因为其占用空间小而受到喜爱。其它常用灭火系统还有 INERGEN 和 Novec ,二者各有各的优点。

除全覆盖式灭火系统以外,州或本地的消防规则可能还要求安装喷洒系统。那样,它将是一个避免意外喷洒对数据中心造成损害的预反应系统。根据本地消防规则,整个数据中心均应配备 FE-36 洁净气体灭火器。在每一个出口,都应该有拉式报警箱和书面使用规程,还应在整栋大楼安放足以通知所有人火警信息的信号设备。
控制系统是保证消防系统有效的关键。它应该具备兼容性、可编程性,而且能够监视所有设备。还应该允许用人工操作代替自动操作。它应该能找到所有探测器,以便辨认火警发生的精确位置。在发生火警警报后,控制系统应该协调进行下列工作:由一个独立的排气式警报器首先发出警报,关闭通风闸以防烟雾扩散,释放气体,通知当地负责人。控制系统应该有精心编制且有效的应急程序的支持,数据中心的工作人员也应进行定期培训,以加强这套系统。
最好的数据中心防火方式,是养成良好的习惯来避免火灾,下面列出其中一部分:
· 确认数据中心的选址远离其它可能构成火灾威胁的建筑。
· 清除所有配电盘附近的障碍物。
· 在 IT 室和控制室强制实施严格的禁烟条款。
· 随时清理数据中心内多余的插座。
· 确认数据中心内所有家具均为金属构造(仅座椅可以有软垫)。
· 所有基本消耗品(指张、软盘、尼龙扎带,等)全部放入金属柜内保存。
· 隔离磁带储存库(磁带燃烧会产生危险气体)。
· 通过 UL 测试的将电脑设备连接到分支电路的延长线不要超过 15 英尺,并且避免将通电的电源线放置在设备、垫子和其它遮盖物下。
· 不要在数据中心使用海绵、纤维等声学材料。
· 不要让大楼其它部分的排气管道通过数据中心,如果做不到,那么使用防火阀来阻止火灾蔓延到数据中心。
· 在数据中心使用干式变压器(或填充不可燃绝缘体的变压器)。
· 保护好所有通过活动地板的电缆,不要在修剪电缆入口孔边缘时将电缆弄破。
· 通过从结构楼面底面到结构楼面顶(屋顶)的防火结构将计算机区与大楼内其它房间隔离开。
· 避免将计算机室设在会发生危险的区域附近。
· 训练所有数据中心人员,使其学会操作防火系统和灭火器。
如果可以避免犯一些小错误,而且能合理设计并监视火灾探测系统,大多数发生在关键设备上的火灾都是可以避免的。在火灾隐患中,人为事故占了很大一部分比例,必须通过培训和严格的强制管理来消除这些隐患。
TAGS:上一篇:IEEE Std 1188-1996蓄电池的维护、测试和更换方法 下一篇:没有了