数据中心机房专用空调性能分析与运行管理
2020-06-30车全越
车全越
(铁总服务有限公司,北京 100045)
0 引言
数据中心制冷设备的运行状态主要取决于信息设备的运行环境要求,包括房间的温度和湿度。另外,随着数据中心的发展,相应的机房空调设备也应该有更加合理的设计,旧的设计理念无法满足当代数据中心的需求,同时也造成了极大的能源浪费。
根据美国研究人员Anders Andrae 的评估,信息和通信技术产业的碳排放量达到了全球排放量的3.5%,到2040 年,这个数字可能会上升到14%。他还预测到2025 年,数据中心的能耗将占ICT 行业总能耗的33%,其次是智能手机(15%),网络(10%)和电视(9%)[1]。
1 精密空调技术最新进展
李婷婷等人对西北五省典型数据中心的实际温度、湿度、空调性能及机房各部分设备耗电量的测试分析。以陕西西安作为一个典型数据中心的案例,分析、评价数据中心的能效比(EER)和能源利用效率(PUE),总结了目前西北地区数据中心空调系统存在制冷性能系数较低、机房内冷量分配不均、热环境较差、空调设计没有因地制宜的设计等方面的缺点[2]。
刘娥玉等人用焓差实验室测试空调机在不同冷凝温度条件下的性能参数,分析系统各部件的匹配关系、整机性能及在变冷凝温度下的综合性能。结果表明,调整蒸发器结构、增加风速、合理匹配热量膨胀阀、降低系统部件和管道阻力等,能使机房空调机在标准制冷工况下COP、变工况下COP 以及综合COP都有较大幅度提高[3]。
黄富强对上海局客专调度大楼精密空调维保工作进行了详细的阐述,从日常管理、改进维保手段、加装电子显示设备等方面介绍了日常工作中的体会与思考[4]。
2 项目概况
数据中心位于北京市海淀区复兴路10 号国铁集团西调度楼内,西调度楼共有地上4 层,地下3 层,层高6 m,建筑面积34 488 m2,建筑高度25.86 m,数据中心设备主要分布在地下1~3 层。机房专用空调采用水-制冷剂冷却方式,通过地板送风、顶板回风的方式对数据机房进行温度和湿度的控制。服务地点为运调机房、客服机房、客票机房、备用机房、UPS 机房、CTC、UPS 电池室、大屏幕控制室、配线间等。
数据中心采用房间级制冷,属于传统数据中心制冷模式,其中地板下送风+地板下走线方式也属于传统排布方式,服务器机柜为“背靠背、面对面”的摆放方式,以形成冷、热通道,与不采用冷热通道机柜摆放方式相比,可节省空调系统能耗5%~10%。另外,冷热通道封闭也是一种有效的节能降耗手段。
在最新的研究和设计阶段,已经出现了行级和机柜级制冷方式,行级空调通过内部风机将封闭通道中的热空气输送到表冷器,实现冷却降温,服务器机柜根据自身需求将低温冷空气吸入,通过服务器的风扇将热空气排至热通道中,行级空调输送空气距离更短,效率更高。机柜级制冷以冷却单台机柜为目的,如水冷门和水冷背板及热管背板等,服务对象更加精准,不受机柜位置和环境的影响,效率更高。
液体冷却系统比风冷系统有着更高的效率,可分为间接冷却和直接冷却式。间接冷却也称冷板式冷却,由冷板与高密度热关键元件CPU 直接接触换热。直接冷却式也称浸没式,浸没式服务器的PUE 甚至可以达到1.1,目前还没有到大规模生产阶段。
3 数据中心设置分析
根据数据中心的规模分类和使用性质分类标准,本项目的分类应为大型数据中心中——A 类数据中心(电子信息系统运行中断将造成重大经济损失或造成公共场所秩序严重混乱)——B 级数据中心(基础设施应按冗余要求配置,在电子信息系统运行期间,基础设施在冗余能力范围内,不应因设备故障而导致电子信息系统运行中断)。根据TIA942 对数据中心的分级将本数据中心分为1 级(无冗余)。可以看出本数据中心的重要程度与冗余量不匹配。
根据冷热通道布置原则,数据中心的布置方式是合理的,包括地板送风方式也有利于为机架服务器降温。但是,由容器原理得出,通道宽度越小制冷效果越好,但数据中心的冷通道过大部分设置为1800 mm 甚至2400 mm 宽,导致大量冷风通过其他区域流向热通道,根据混合原理,冷热风混合后必然会导致空调功耗增加和制冷效果变差。
在项目的温度测试中,运调机房的高密机架较多,现有的解决办法为集中负荷在数据机房的一侧,同时在这一侧增加空调设备,集中为本区域的高密机架供冷。另外还有一种解决办法是将发热功率高的机架分散布置,将高功率机架中的设备分散到多个机架中以降低机架功率密度,或者将高功率机架分散到低功率机架列中。
机架发热量与空调制冷效果决定机架间距,见式(1)和式(2)。
式中 Q1——单个机架所需的冷风量,kg/h
P——机架的功率,W
CP——空气的比定压热容,J/(kg·℃)
Δt——机架进出口温差,℃
式中 Q2——活动地板下送风量,m3/s
a——机柜间距,即冷通道长度,m
b——机架长度,即冷通道宽度,m
v——活动地板下送风出口风速,m/s
η——活动地板开孔率,%
以4 kW 机架为例,活动地板开孔率60%,活动地板下送风出风口风速5 m/s,根据容器原理,1 kW 发热功率在进出口温差为11 ℃时所需风量为270 m3/h,由公式计算4 kW 机架所需风量为1080 m3/h(0.3 m3/s),令Q1=Q2,得出冷通道宽度需要1 m左右,而实际机房内通道宽度一般为1 m,可以看出本数据机房的机架适合放置4 kW 机架。
在测试过程中,还通过分析机架与数据机房柱网的关系、机架布置与气消保护区大小的关系、机架布置与结构柱截面尺寸的关系、机架布置与配套设备用房的比例关系、机房利用率与机房进深的关系、机房平面布局与结构的关系,得出的结论均为基本合理。
4 机房专用空调性能分析
根据目前市场现有数据机房空调系统及使用情况,较为常用的数据机房空调系统分冷水型空调系统及直接蒸发式空调系统,其中直接蒸发式空调系统根据散热介质的不同分为水冷式和风冷式。
4.1 概况
(1)客服数据机房。机房面积333 m2,其中网络设备机柜10台,服务器机柜28 台,弱电列头柜10 台,强电列头柜7 台,备用服务器机柜49 台,发热量共计318 kW。客服专用空调机房内共有8 台精密空调,均为双压缩机系统,型号Q29,工作时间:24 h,送风温度:23±1 ℃,送风湿度:40%~55%,风量:192 000 m3/h,气流组织为地板送风,上回风,地板风速:4.48 m/s,架空高度:790 mm,并敷设20 mm 厚度铝箔闭泡橡塑保温板。
(2)运调数据机房。机房面积417 m2,其中网络设备机柜20台,服务器机柜94 台,弱电列头柜11 台,强电列头柜7 台,发热量共计272 kW,运调专用空调机房内共有9 台精密空调,均为双压缩机系统,型号Q29。
(3)客票数据机房。机房面积207 m2,其中网络设备机柜14台,服务器机柜39 台,弱电列头柜4 台,强电列头柜5 台。发热量共计115 kW,客票专用空调机房内共有8 台精密空调,均为双压缩机系统,型号Q25。
(4)备用数据机房。机房面积108 m2,其中服务器机柜27台,弱电列头柜6 台,强电列头柜3 台。发热量共计95 kW,备用专用空调机房内共有4 台精密空调,均为双压缩机系统,型号Q14。
4.2 实验测试原理及方法
测试原理为数据机房各位置的温湿度、风速均不相同。实验目的为检测机房内温度分布情况和空气流动情况,为机房的运行维护和升级改造提供可靠参数。
(1)本项目通过FLUCK 手持设备(热成像仪、风速仪、温湿度测试仪)进行温度、湿度、风速的测试。
(2)热成像仪测试点位为4 个机房的全部冷热通道共计28 个。
(3)温湿度测试点位为4 个机房的全部冷热通道共计28个,每个通道测试8~11 个点位,每个点位均测试3 个高度(0 m、1 m、2 m),共计测试840 个点位。
(4)风速测试点位为4 个机房的全部冷通道共计12 个,每个通道测试8~11 个点位,每个点位均测试3 个高度(0 m、1 m、2 m),共计测试360 个点位。
4.3 测试结果分析
分析测试结果,得出数据机房地板送风温度分布的情况及特点:①离地板越近温度越低;②通道两侧温度低,中间温度高;③2 点位温度与3 点位的差值较2 点位与1 点位的差值小;④通道末端一般为通道温度极小值点,此点离空调机房最近;⑤机架上方温度最高,有温度超高报警的危险,此点有热空气混合;⑥客票机房温度最高,备用机房温度最低;⑦运调机房温差大制冷效果好,备用机房温差小制冷效果差。
5 结语
数据中心年总耗电量是维持数据中心正常运行的所有耗电量,即IT 设备、制冷设备、供配电系统和其他设施的耗电量总合。我国的PUE 平均值为2~2.5,美国的数据中心PUE 为1.9,我国数据中心PUE 水平低下造成了高功耗,不仅增加了成本,也造成了社会能源的巨大浪费。可以看出,空调制冷系统的能耗占数据中心总能耗的1/3,仅次于服务器设备的能耗,是影响数据中心运行的重要成分之一。