网络云百问百答
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

第一篇 IT运维篇

1章 云平台架构

1.1 数据中心

Q1.网络云资源池机房基础设施及配套要求是什么?

一、机房基础设施及配套要求

(一)集中网络云机房总体要求

(1)“面向未来、长远规划”,按照满足5~10年业务发展需求,先行规划建设集中网络云所在数据中心机房基础设施[1]

(2)集中网络云所在数据中心机房应满足《中国移动数据中心机电工程建设指导意见》最新版中关于A级数据中心的相关规定。

(3)集中网络云所在数据中心机房所在机楼原则上应具备三条出局光缆,满足接入省份至本节点省份主用节点、备用节点路由需求。

(二)机房工艺要求

(1)尾纤槽道下线孔与机柜下线孔位置匹配,方便布线,减少路由迂回。

(2)为充分利用机架空间、提升装机率,服务器机柜(包括计算型、存储型)应采用密集部署方式装机。

(三)机房消防要求

在进行机房规划时,应该遵守国家关于消防安全的规定,不得设置对消防喷头有任何阻挡的设施,依据现行的《气体灭火系统设计规范》(GB 50370—2015)、《建筑设计防火规范(2018 年修订版)》(GB 50016—2014)、《火灾自动报警系统设计规范》(GB 50116—2013)、《消防给水及消火栓系统技术规范》(GB 50974—2014)、《自动喷水灭火系统设计规范》(GB 50084—2017)和《建筑灭火器配置设计规范》(GB 50140—2005)等的相关规定进行设计。

(四)机房环境监控要求

监控系统要对机房环境、安防等方面进行实时监控,并记录和处理相关数据,保障各类通信设备的安全运行。

二、机架、走线架及尾纤槽道要求

(一)机架要求

每个网络云节点省份内同一机房的机架为同一种样式:颜色深色系,统一要求新增机柜不设柜门。机架尺寸建议为600mm(宽)×1200mm(深)×2200mm(高)。

(二)走线架及尾纤槽道要求

机房线缆在布放时应采用走线架及尾纤槽道方式。

1.走线架要求

(1)机房线缆在布放时应采用走线架,走线架应选择开放式走线架,并应设置至少两层走线架;交流电缆、直流电缆、信号电缆严禁交叉混走,各走线架用途应有清晰标识。

(2)列走线架不应安装在热通道上方,应尽量安装在机架上方,以避免阻碍回风效果。

(3)水平安装的走线架距机架顶部不应小于0.1m。

(4)走线架多层敷设时,其层间距离应符合下列规定:电力电缆走线架间距离不宜小于 0.3m;通信电缆与电力电缆走线架间距离不宜小于 0.3m;通信电缆走线架间距离不宜小于 0.2m;走线架上部与顶棚、楼板或梁等障碍物间距离不宜小于0.3m。

(5)走线架敷设应满足机房内信号线缆双路由要求。

2.尾纤槽道要求

(1)考虑网络云设备信号线缆以尾纤为主,并且尾纤数量较多,尾纤槽道宽度要求原则上不低于240mm。

(2)列尾纤槽道敷设位置应保证其下线口与机架下线口对准。

(3)主尾纤槽道建议敷设在列尾纤槽道两端位置。

(4)尾纤槽道敷设应满足机房内信号线缆双路由要求。

3.机架排列要求

(1)在进行机房平面规划时,机架布置采用“面对面、背对背”的排列方式,相邻两列设备的吸风面(正面)安装在冷通道上,排风面(背面)安装在热通道上,实现冷热气流分隔,形成良好的气流组织,提高空调的制冷效率[2]

(2)机架内未安装设备的 U 位,应安装挡风盲板,实现冷热气流分隔,形成良好的气流组织。

(3)工艺设备列间距要考虑工艺设备维护空间,还应根据机架装机功率密度的大小合理选择列间距。

(4)机架列间距根据设备发热量、送风方式、设备运输及维护要求等因素确定,标准机架正面维护净间距不小于1200mm,背面维护净间距不小于800mm。

4.机架加固要求

机架应根据《电信设备安装抗震设计规范》(YD 5059—2005)进行加固处理。

注:后续如发布更新的业务、网络系统对应机房级别划分相关规范,应按照最新规范要求执行。

Q2.网络云资源池供电系统如何管理?

一、电源设计要求

(一)机房电源要求

(1)电源配套建设标准应满足《中国移动数据中心机电工程建设指导意见》A级机房要求。

(2)网络云机房应采用双路高压直流、双路 UPS (Uninterruptible Power Supply,不间断电源)保障两种供电方式。UPS、高压直流采用2N系统。

(3)网络云设备应采用专用通信电源系统(高压直流电源系统+蓄电池组/UPS+蓄电池组)为网络云设备供电;蓄电池组按后备时间15分钟高功率型电池配置。

(4)应由相互独立的电源系统(高压直流电源系统+蓄电池组/UPS+蓄电池组)为A、B硬件分区设备分别供电。

(二)机架电源要求

(1)对于机柜PDU(Power Distribution Unit,电源分配单元),应按机房规划选择合适的规格。

(2)所有插座应为防脱插座,有效杜绝电源线松动。

(3)高压直流插座分路应配置相应的高压直流断路器,对于机架配电母线场景使用的PDU应配置总开关。

(4)单机架要求至少支持 7kW 的设备运行功耗,推荐采用机架配电母线替代传统列头柜配电,提高配电柔性,解决个别高功耗设备的配电需求。

二、电源建设现状

网络云电力电池室配UPS、低压配电柜、高压直流电源及蓄电池组。数据中心机楼进场电源为两路 10kV 市电,经一次高压、二次高压及机楼变压器等设备变为低压市电,送至各网络云机房配套电力电池室低压配电设备。

Q3.网络云资源池常用供电方式的区别是什么?

网络云资源池常用供电方式主要有 220V 交流电和 336V 直流电两种,其区别如下。

1.220V交流电

在三相四线制中,相线与零线之间的电压称为相电压,其标称有效值为220V,是目前交流设备常用的供电方式,在数据中心、通信机房中通常由 UPS为用电设备供电。

2.336V直流电

直接为用电设备提供336V直流电的供电方式,与UPS相比,结构简单,效率、可靠性更高,336V高压直流电目前主要应用于数据中心。

Q4.网络云资源池电源2N系统、3N系统的区别是什么?

一、2N系统

2N 系统又称双总线供电系统,由两套完全独立运行的 UPS 系统、LBS(LoadBus Synchronization,负载同步系统)、STS(Static Transfer Switch,静态转换开关)、输入及输出屏构成,当一套UPS系统出现问题时,另一套UPS系统可承担供电工作[3]

二、3N系统

3N系统也称为三母线系统、三角形供电系统,即每三套UPS系统组成两两双总线分布冗余系统,三套UPS系统互为主备用,有三条母线同时对外输出电力[3]。当一套UPS系统异常时,另两套UPS系统可承担供电工作。

三、2N系统和3N系统的主要区别

(1)正常运行时的最大负载率要求。在2N系统中,每套UPS系统的负载率不应超过额定容量的 45%;在 3N 系统中,每套 UPS 系统的负载率不应超过额定容量的60%。

(2)故障时的最大负载率要求。在2N系统中,当其中一套UPS系统退出时,另一套UPS系统的最大负载率不应超过额定容量的90%;在3N系统中,当其中一套UPS系统退出时,另两套UPS系统的最大负载率不应超过额定容量的90%。

(3)3N 系统供电方式满足双总线供电系统的基本要求,面对相同的供电容量需求,3N 系统的供电方式需要的供电设备更少,相应地缩减了配电设备对机房空间的占用,有效地提升了通信设备的可安装面积[3]

(4)相较 2N 系统,3N 系统在应用中容易出现负载三相不平衡、系统 UPS单机负载不平衡等现象,需要合理分配负载,否则会导致中性线零点漂移,严重时甚至会烧毁负载设备[3]

Q5.网络云资源池制冷系统如何管理?

一、机房制冷系统设计要求

(一)机房空调要求

网络云新启用机房空调方式应为新型空调末端,制冷能力应满足设备功耗。

(二)机房散热要求

根据网络云资源池设备功耗统计,单机架最大运行功耗为 7kW,基本上可以满足所有硬件设备的散热要求。

对于列间空调方式:两列机架组成的一个封闭热通道(或封闭冷通道)是一套空调系统,一套系统承担机架总发热量不超过设计值即可,系统内个别机架发热量可不受限。

二、机房制冷系统建设现状

网络云机房冷站制冷系统采用数据中心集中供冷模式(见图 Q5-1),以河北节点省为例,保定数据中心集中供冷模式主要采用 10kV 高压离心冷水机组+板式换热器(简称板换)+冷却塔系统的形式。数据中心两栋机房楼分别设置一个冷站,每个冷站有三套制冷系统,两栋机房楼共六套制冷系统,通过地下母联管路形成“5+1”配置。每栋机房楼配置一个600m3的蓄冷罐。

每个冷站内三套制冷系统的冷冻水侧并入一个环网,冷机/板换与冷冻泵可交叉对应;三套制冷系统的冷却水侧分别为独立运行的系统,冷机/板换与冷却循环泵、管路、冷却塔一一对应(仅楼顶冷却塔之间可以互连)。

1.冷冻水供水路由

从冷机/板换降温后的冷冻水通过分水器、双路环管,送至各楼层末端。

2.冷冻水回水路由

从各楼层末端通过双路环管、集水器、冷冻泵,回到冷机/板换进行降温。

3.冷却水供水路由

从冷却塔蒸发散热后,温度相对较低的冷却水通过供水管路、冷却循环泵,回到冷机/板换进行热交换。

4.冷却水回水路由

从冷机/板换完成热交换的温度相对较高的冷却水通过回水管路、冷却塔进行蒸发散热。

制冷系统主要包括冷机、板式换热器、冷冻水循环系统、冷却水循环系统、冷却塔、蓄冷罐、末端空调等设施。

图Q5-1 网络云机房冷站制冷系统

(一)冷机

每个冷站配置三台高压离心冷机,两栋机房楼共六台高压离心冷机,通过地下母联管路形成“5+1”配置。按照设计,数据中心满载时,A 楼运行三台冷机,B楼运行两台冷机。冷机供冷模式主要应用于非自然冷却时间。

(二)板式换热器

每栋机房楼三台板式换热器,两栋机房楼共六台板式换热器,通过地下母联管路形成“5+1”配置。按照设计,数据中心在满载时,A 楼运行三台板式换热器,B 楼运行两台板式换热器。板式换热器供冷模式主要应用于自然冷却时间。

(三)冷冻水循环系统

冷冻水管路在冷站内形成环路,每个冷站采用分水器、集水器以双管环路系统给机房楼二层至五层供应冷源(一楼为单路冷源)。但是,在管路爆管、冷冻水大量失水等故障情况下,故障点隔离、系统排气、补水等应急处置措施历时较长。

1.分水器

每个冷站配置两台分水器,以负荷分担方式运行。

2.集水器

每个冷站配置两台集水器,以负荷分担方式运行。

3.冷冻泵

每个冷站配置三台冷冻泵,以负荷分担方式运行。

4.定压补水装置

每个冷站配置一大(5m3/h)、一小(2m3/h)两套定压补水装置,以主备用工作方式运行。

(四)冷却水循环系统

每个冷站配置独立的三套冷却水循环系统,分别与三台冷水机组、三台板式换热器、三组冷却塔一一对应。

1.冷却循环泵

每栋数据楼配置三台冷却循环泵,独立运行,分别与三套冷却水循环系统一一对应。

2.冷却塔补水蓄水池

园区配置两个冷却塔补水蓄水池,以负荷分担方式运行,共1584m3,可在供水中断的情况下满足12小时用水需求。

(五)冷却塔

每栋数据楼配置三组制冷用冷却塔,其中,两组冷却塔每组有五个冷却塔,以负荷分担方式运行,一组冷却塔有三个冷却塔,同样以负荷分担方式运行。负荷冷却塔组之间也以负荷分担方式运行。

(六)蓄冷罐

每栋机房楼配置一个 600m3的蓄冷罐,可在紧急情况下提供 15 分钟冷源供应。

(七)末端空调

网络云业务机房末端空调为热管背板空调,每个机房配置244 台,共1220 台。按照系统设计,每个机房的制冷冗余量为35%。

电力电池室空调为上送风冷冻水型精密空调,每个空调间配置三台,以“2+1”模式运行。

Q6.数据中心常见的空调背板类型有哪些?

大型数据中心普遍采用集中水冷冷冻水空调系统,冷冻水送至机房末端空调,在空调内部表冷器与机房空气进行热交换,通过风机将冷风送至 IT 设备进风,抵消 IT 设备工作过程中产生的热量,使得机房处于合适的温度和湿度,提升IT设备工作的稳定性和使用寿命。

数据中心末端空调一般采用三种形式:热管空调、列间空调和水冷末端空调。其中,热管空调和列间空调通过冷媒或空气将冷冻水进水的冷量送至机房,热交换通过板式换热器完成;水冷末端空调的制冷过程无制冷剂参考,冷水的冷量与机房内热空气直接进行热量交换。

数据中心常见的空调背板为水冷背板和热管背板。水冷背板采用水作为载冷剂,水资源相对比较丰富,所以投资更少,水冷背板比热管背板减少了一次换热,效率更高。因为冷冻水进入了机房内,所以机房的风险变高,一旦出现漏水就会损坏设备。热管背板采用氟利昂作为载冷剂,投资偏高,又多了一次换热,系统效率略低,但是水不进入机房,安全性更高。