APP下载

数据中心机房节能降耗技术的应用研究

2023-05-30沈鑫

科技风 2023年14期
关键词:节能降耗机房数据中心

摘 要:随着数据中心机房承载业务的不断扩容,机房中的各类服务器设备的数量逐渐增多,配备的精密空调制冷消耗的能源也在不断攀升。通过分析能耗增加产生的原因,研究如何在不影响到其中装载的各类业务系统正常运行的前提下,采取合理的技术有效降低机房的能耗,以实现绿色低碳节能,降低用电成本。

关键词:数据中心;节能降耗;精密空调;机房

近年来,笔者单位完成了对局属四个部门分散机房的核心设施设备及相关业务系统的迁移整合。整合后的数据中心机房面积有400平方米,图腾机柜48个,各类服务器、存储设备、网络和安全设备300余台。随着设备的规模越来越大,技术的高速发展也同时带来了大量能源的消耗。这其中机房有关设备的电能利用率、效率的低下与技术架构的更新、节能减排的矛盾逐渐加剧。整个机房有几百台的各类设备,其所消耗的能耗是巨大的。如果每个设备我们都能想办法节省一些能耗,那么整体就会节约很多能耗。为此,笔者专门进行研究数据中心机房设备的节能,要在不影响各设备运行业务系统的前提下进行,进行详细论证,分析机房能源消耗大的原因和提出相应的技术解决办法。

1 分析机房能源消耗大的原因

1.1 设备数量多,效率低,发热量大

数据中心机房共有300多台各类设备,包含单位内部及外部单位存放的服务器、存储设备、交换机、防火墙、VPN、入侵监测系统、入侵防御系统、防毒墙、堡垒机、日志审计以及运营商电信、移动、联通、广电提供线路服务包含的路由器、交换机、光猫、收发传输设备等。

在传统模式下,每增加一个业务系统就需要增加2台专用服务器和1台测试服务器,而平时服务器的大量系统资源利用率低下,一般一台服务器装有一个操作系统,受系统和软件开发平台的限制,CPU、内存、硬盘空间的资源利用率都很低,大量的系统资源被闲置,造成财务成本和系统资源的双重浪费。系统和应用迁移到其他服务器,还需要和旧系统进行兼容。为节省时间、物力和保持系统部署的顺利,只能使用增加物理服务器单独部署的方法来解决。随着服务器数量不断增多,机房耗电量也大大增加,既不符合绿色环保要求,又将给机房供电、制冷带来一系列的问题。

数据中心机房内需要大量高性能的服务器来高速处理大量业务数据,同时使用大容量的存储设备来存储这些数据。部分设备因安装的高性能中央处理器CPU功耗大,或者安装了多个处理器同时使用,同时配备大容量内存、硬盘组合,为保障正常使用的需要都配备了双电源,单电源的功率就达到了1250W。这会进一步增加设备的功耗和发热量,进而使数据中心机房内部温度升高,温度过高会导致服务器等设备或各类业务系统故障。这些设备365天全年无休24小时不间断运行,这就需要不断使用空调制冷,因此需要及时给予冷却降温。通过安装的环境监测系统显示,机房内日常运转的设备发热量巨大,经有效测试,即便外部室温在零下5℃时,如关闭空调,则机房内部温度在几小时内就将急剧上升至50℃左右,這将严重影响机房设备运转。

1.2 风道不畅通,影响空气流动制冷

机房采取下送风上回风的制冷模式,下送风是要在地板上做出风口,地板下当作一个静压箱,在每个机柜的正下方对好出风口,使空调发出的较低温度气流自下而上流过机柜中的设备,从而将热量带走。精密空调吹出的冷风从底部出来,将冷风送向机房内各个机柜设备从而达到制冷的效果,保证机柜中的设备能在一个合适稳定运行的环境温度下工作。

也正是由于下送风制冷的特点,机房内部署安装所产生的各类管线,包括空调加湿给水管、凝结水排水管、电源线、网络线、数据线、信号线等管线都安装隐藏在活动地板的下方。在机房建成通过验收后的运转初期,因为机柜中安装的各类设备数量少,管线也少,且开始各类设备和管线的布置安装也是充分得到验证,能够保证有足够的空间给精密空调下送风使用。

随着时间的推移,各类设备的不断扩容,后增加的设备管线越来越多。后期的各类升级工程都是根据不同安装调试单位来组织实施的,缺少一个统一的标准,怎么方便就怎么来做。时间久了,活动地板下的灰尘随着时间的积累也在逐渐增多,清理起来很困难。如果清理不到位,就会造成一些部位有灰尘聚集,空调的风道会逐渐减少甚至堵塞,从而影响空调制冷效果同时增加空调能耗。

1.3 各区域冷热不均,制冷效率低下

1.3.1 远近冷热不均

由于精密空调制冷范围的近端和最远端的距离大约有20多米,距离比较长,中间活动地板下的风道由于各种阻塞和不通畅,使得机房内部远近各区域温差较大。也就是说离空调近的区域温度低,离空调远的区域温度就高。

1.3.2 高低冷热不均

由于机房采取的是下送风,在每个机柜下方留有出风口,空调送出的冷气是从下往上传递。机柜容量大小为42U,高度2米。一般机柜都安装了10余台设备,而设备里的散热风扇基本都是采取的前后方出风散热,这与冷气出风口的方向正好垂直。在没有建立密闭风道时,无法保证让冷气足够进入各设备中间,带走热量。加上从下到上多层设备的阻隔,会造成同一机柜下部温度低,而顶部温度高的温差现象。经过实测,大概离地1米以内是可以起到风冷降温的作用,1米以上就相对明显会热一些,2米以上到天花板区域最热。

1.3.3 内外冷热不均

单位大楼建筑初期为普通办公用房,并未考虑建设专业的数据中心机房。大楼内机房和办公用房混用,建造时为考虑透光性采取了西面沿街方位窗墙比例较大并大量使用了玻璃幕墙,导致夏季大量热能通过玻璃进入机房,使得空调制冷压力倍增,空调时常出现压缩机高压警告提示。

2 采取可行的技术解决办法

2.1 关闭闲置机器,淘汰老旧设备

结合网络安全隐患自查,需要全面梳理各类业务系统、网站、APP、微信小程序等互联网资产,全面清查“三无七边”系统,通过系统所对应的服务器的清理,来实现节能减耗的目的。也就是针对无人管理和使用、也无安全防护的系统全面进行清理。对各类测试系统、实验系统、退网未离网系统、软件已上线但还未正式交付运维的系统、与其他合作方共同运营的业务系统、责任不清晰的系统、处于衰退期的系统开展全面排查,进行整改或关停。

技术小组对现有负责运维的系统所承载的服务器共计169台进行逐一梳理。减少测试服务器的使用,能合并的进行合并,暂时不用的保存好数据后进行关机。另外,找出暂时不用和不再使用的老旧业务系统,进行关机。超过使用年限且已损坏无法维修的服务器和相关设备进行报废处理。

经过仔细排查,技术小组共清理关闭30多台服务器,目前已全部进行关机处理。按当前的使用量计算,全年预计可节约电费3万元以上。

2.2 采取服务器虚拟化来实现精简设备

数据中心机房内现有各类服务器100多台,运行平均已有8年左右,70%以上的服务器已过硬件质保期,而且有一部分服务器已经损坏,配件停产也无法维修,存在很大的运行风险。另外几乎每个应用服务器都是单机,如果某台服务器出现故障,相对应的业务也将中断。其次是当硬件需要维护、升级或出现硬件故障时,业务系统均会出现较长时间的中断,影响业务的连续性,其中包括一些重要业务系统,一旦中断服务影响很大。

针对当前数据中心机房的实际情况,技术小组制订了服务器虚拟化实施方案。服务器虚拟化就是要利用近几年配置的性能较高的服务器为主要设备,来实现物理服务器的整合,只要比较少数量的物理服务器就可以运行各类软件系统的需求。做到不增加物理服务器,不多占用机房空间,提升现有服务器等资源的利用率,同时还需要保障业务连续不中断。

服务器虚拟化方案采用VMware虚拟化技术对服务器进行虚拟化,并组成两个虚拟机集群,包括重要业务系统集群和备份集群,从而将多台物理机转化为让CPU、内存、硬盘等硬件都可以做到按需分配的虚拟机资源池,提高资源的利用率,简化设备管理,实现服务器的整合。在实际运用中,还可以根据业务需要随时对资源进行调整,分配最合适的运算和存储资源。通过虚拟化整合,数据中心机房某核心业务系统原使用20台相关物理机(包含Web应用、数据库、备份、中间库、内外网数据转换、统计分析等专用物理机),现合并成虚拟化的3台即可。资源利用更加高效,算上淘汰下来的老旧服务器功耗,总计能节约相关能耗一半以上。

2.3 为服务器更换固态硬盘,节能又高效

原服务器设备使用的大容量硬盘大都为SAS接口,每台服务器都至少装有2块硬盘,存储设备上一般都会装有几十块SAS硬盘,组成RAID阵列来保障数据的读取和备份。SAS机械硬盘的转速一般为每分钟10000转或15000转,运行产生的热量高,功耗较大,且性能仅仅比普通台式机使用的机械硬盘略高。

现如今,随着科技的进步,SSD固态硬盘技术逐渐成熟,价格也越来越便宜,采取SATA接口的固态硬盘由于内部不存在任何机械结构,抗震性能非常好,每秒读写速度可达600MB,并内置大容量高速缓存,使得程序读写整體运行效率大幅提高。特别针对日常使用中频繁出现的小文件存取,效率比一般的机械硬盘提高了10倍。随机读写的性能,固态硬盘甚至可以达到传统硬盘的50倍。存储服务器、文件服务器、数据库服务器、网站服务器这些服务器对随机读写的性能要求很高,SSD固态硬盘的这种高读写性能就可以更好地满足应用需求。

在合适的条件下,为服务器更换固态硬盘,不仅可以大幅增加服务性能,同时又能降低能耗。经过技术小组测算,如数据中心机房内的设备全部更换固态硬盘可将总体硬盘消耗的能源降为原先的40%以下。

2.4 及时开展空调运行维护保养

精密空调运转全年无休,是数据中心机房的核心设备。技术小组对空调进行日常例行检查,组织专业维护人员对设备进行维护保养,做到可以及时发现问题,并且能够保障空调各项功能的正常运行。

空调运维主要内容如下:

(1)每日例行检查,各个温度监测点的温度是否正常,外机是否运转正常,有无管道泄露,空调操作面板有无告警信息提示,空调运转有无异响。

(2)每季度检查外机,进行外机冷凝器散热翅片清洗,检查制冷剂是否需要添加,检查空调滤网如堵塞严重即时进行更换。

(3)春节、国庆等节假日前,进行空调运行情况检查,确保长假期间稳定运行。

(4)夏天如遇连续高温,应对室外机进行遮阳,适当采取间歇使用水雾降温,节约能耗的同时,降低空调故障率。

(5)确保空调双机设备冗余到位。检查空调参数设置,确保精密空调双机联动,互为冗余运行,以减少故障发生率。

此外,技术小组定期针对精密空调高压、低压告警等故障,结合多方因素,认真分析核查故障发生原因,积极予以处理;同时通过改进空调双机联控工作模式,并利用PLC对主板参数进行调整,让空调换个“芯情”守岗,不仅一定程度上降低空调能耗,减少故障发生率,还大大提高空调运行的稳定性和制冷能效。另外,为保障空调供电不间断,数据中心机房还配备了柴油发电机组,定期进行测试,可为机房空调、服务器等设备提供备用的电源输入。

2.5 清理风道,调节出风口,增强空调制冷效率

一是定期开启活动地板。联系运维人员进入仔细检查,确保各类强电、弱点、管路线路清晰不拥堵,对正常使用但不规整的进行捆扎,及时清理已损坏的和不再使用的线路,再对地板下的空间进行除尘处理,确保下部风道畅通。

二是除去每个机柜正下方的出风口,在活动地板上增加额外的出风口,并可根据需要随时开启或关闭。根据实际情况,在温度高的区域适当增加底部出风口的数量,合理分配机房精密空调制冷自由出风口位置,尽可能地让机房空间内各处温度趋于均衡。

三是在空机柜区取消所有地板风道,在设备密集区增加适量风道。使得冷热空气迅速混合,冷通道最大程度地利用空调送出冷量和风量,与设备的发热量进行交换,有效避免设备出现高温或局部过热现象的发生,以降低空调无效部分的制冷功率,达到降耗节能。

2.6 增加制冷空间密闭性和增设保温层

数据中心机房存在部分区域密封不到位、隔热效果差也是降低能耗要考虑的重点。单位机房处在苏南地区,冬季一般最低温度为零下5℃左右,机房空调运转压力很小;但夏季高温时期比较长,根据近几年的观测,夏季高温连续10天左右都达到40℃的情况也时有发生。因为外墙传递进来的热量非常可观,所以机房的门要用良好的隔热材料,窗户要使用隔热玻璃,墙面、地面、天花板都要隔热。技术小组经过研究,针对以下几方面进行加强:

2.6.1 机房开展保温隔热层改造

需要对机房建筑围护结构进行行之有效的保温隔热措施,在机房和外墙窗户中间增加了一个保温隔热层。通过夏季温度实测室外温度40℃时,在保温层后的机房空间,即使没有空调冷风吹及的地方也只有30℃左右,效果明显。

2.6.2 改进机房内部的相关设施

机房内的门窗等部件如发现了框架松散、缝隙较大的,可以采取做一些适应性临时措施,用胶水封堵,用塑料薄膜覆盖,用其他辅助工具进行加固。门窗使用时间超过15年的,建议更换全新密封性隔热性好的门窗,来彻底减少通过外墙带来的额外冷气损耗。

2.6.3 减少热辐射和新风节能

机房窗户一般情况下不得打开,在外部温度大于机房内温度时,进出机房要记得随手关门,以减少热空气频繁进入造成的热辐射。同时如果使用的是有换气功能的精密空调,在室内无异味的情况下,可以不开新风换气,这样也可以节省一些能耗。

2.7 根据季节合理调节空调温度

因机房空调一般都是设定在21~25℃。由于内部设备发热量大,因此精密空调是全年长期处在制冷的状态下。实际运行中发现,夏天尤其是室外达到40℃时,空调负荷较重,室内如设置为21℃时,空调将长时间处于全速运转状态容易造成高压故障。如能调整到25℃,则能大大减轻空调的负载,空调不用长时间工作就可以达到指定状态,然后开启变频,局部外机风扇停转,处于休息待命状态,等温度升上去再即时开启运转。冬天则不影响,空调设置成21℃运转也很轻松。所以技术小组考虑到上述情况,为降低夏天的空调故障率,保障空调稳健运行同时降低能耗的做法可以是,在不影响机房内部设备正常工作的前提下,夏天可以把温度适当调高几摄氏度,来减轻空调的负荷。据有效统计,调高1℃大约能节能空调能耗3%左右。

2.8 尽量采取具有节能指标的设备

数据中心机房在照明、精密空调和供配电设备的选取时,应尽量考虑设备的绿色节能属性。老旧的设备耗电高,当出现已过使用年限且无法维修或维修费用过高时,应及时考虑采取新设备。尤其是老旧的精密空调,一般来说机房精密空调的使用寿命在8~10年。在长时间的使用后,精密空调就会出现噪声增大、耗电量剧增、制冷速度慢、经常各类故障报警、出风口异味等不正常的情况,这样直接影响了日常使用。另外由于空调的各种管路、支架时间长了会腐蚀、生锈、泄露,发生松动、变形、脱落现象,存在一定安全隐患。替换新的精密空调,新设备运转更可靠,节能技术也更成熟,配合高效率的变频和负载均衡功能,能有效降低能耗,提升制冷效率,确保机房内各设备更稳定运行。

另外,针对数据中心机房当时部分设计的照明均为普通灯管,使用已超过10年,灯管、整流器故障频发。技术小组根据当前绿色环保节能的设计,全部更换成低功耗低發热量的LED照明,照明这部分的功耗也可以缩减为原先的1/5。

结语

做好节能降耗工作,建设好绿色、低碳、高效的数据中心机房是当前信息化建设不容忽视的目标。改造过程中不断地实现了既保证原有系统的正常稳定运行,又减少了运行维护所需要的人力物力,也节约了相应的投入成本。随着各项技术方案的顺利实施,数据中心机房设备以及精密空调的用电量已得到很大改善。经过1年来的实践持续完善,已初步实现节能将近30%。

参考文献:

[1]戴新强,李荣康,陈萌,等.兰州某核心枢纽机房节能改造[J].暖通空调,2023,53(01):8387.

[2]陈凤,陈皓,陈晓.老旧大型数据中心节能挖潜的应用研究[J].电信快报,2022(10):4346.

[3]许成炎,闫秀英.基于变流量解耦的制冷机房节能优化研究[J].制冷技术,2022,42(04):4753.

[4]杨秀琴,曹庆.对传统建架IDC机房节能改造模式的探讨[J].电信快报,2022(03):1013.

[5]韩广宇.某办公楼制冷机房节能改造项目运行能效分析[J].制冷与空调,2022,22(02):6469.

[6]王铭祥.数据中心机房节能运行现状与问题分析[J].现代工业经济和信息化,2022,12(01):262263+266.

[7]应寅.浅析数据机房节能技术策略[J].智能建筑与智慧城市,2021(10):110111.

[8]陈飞虎,廖曙光.某电信机房节能改造全年能效的热力学分析[J].建筑热能通风空调,2021,40(10):5558.

作者简介:沈鑫(1981— ),男,江苏常州人,研究生,高级工程师,研究方向:信息化机房管理。

猜你喜欢

节能降耗机房数据中心
酒泉云计算大数据中心
氯碱装置节能降耗措施的探讨
民航绿色云数据中心PUE控制
提升节能降耗增效之工艺改造和技术应用
N通信公司机房节能技改实践
新型有线电视机房UPS系统的配置
大功率发射机房冷却送风改造
基于云计算的交通运输数据中心实现与应用
i-StARS起停系统技术节能降耗
施耐德:以PlantStruxureTM PES助力节能降耗