智慧校园下数据中心建设与优化
2021-12-11周晓晶
周晓晶
(长春工业大学,吉林 长春130012)
信息化不但是高校对外宣传的一个窗口,也是日常运行管理中必要的技术和手段,随着校园信息化的逐步深入,数据在高校中的作用越来越明显。基于学校信息资源及应用资源,建设共享数据中心,实现资源的集成和共享,从而建设统一的数字化智慧校园平台,是高校信息化建设的核心任务之一,也是高校信息化建设发展的必然阶段。
随着高校办学规模的扩大和教育信息化的逐步深入,传统数据中心建设成本高,资源利用率低,运维复杂,可靠性差,已无法应对新形势带来的挑战。通过引入虚拟化技术、建立动态数据中心,可以缓解规模与资源的矛盾。应用服务器虚拟化技术能够极大地提高资源利用效率,降低维护工作量,提高平台稳定性、安全性,实现资源动态均衡,使静态数据中心变身为可伸缩的绿色动态数据中心。
本文以长春工业大学网络中心为例,分析实际需求和可虚拟化改造的程度,对虚拟化产品的选择、虚拟化基础架构的搭建和建设方案的设计、实施等问题进行探讨,提出一种虚实结合、以最小的代价实现数据中心的虚拟化改造方法,并对运行效果进行评估。
1 数据中心的发展背景
高校数据中心在建设之初,每一个业务系统都通过一台服务器、一套操作系统、数据库、应用软件来搭建。随着虚拟化、云计算等技术的发展,信息化的建设也发生了一定的变化,虽然,有些信息化业务系统在建设时使用了站库分离或数据库系统管理等思想,但仍然没有从根本上解决系统融合分离的问题。
通过引入数据共享中心作为第三方平台,所有的业务数据全部基于明确的数据标准和接口规范在该平台中进行采集和推送。同时,数据共享中心可以通过统一的安全管理策略来避免因各系统间松散且无标准的点对点交互所产生的数据安全隐患问题。本文以长春工业大学信息化建设为背景,数据中心建设从大的方向分以下四个步骤,如图1所示。
图1 数据中心建设发展进程
当前用过的服务器品牌多种多样,SUN、IBM、HP、DELL、曙光、CISCO、华为、华三近几年的更迭越来越快,图1为我校服务器更新历程。
2 云数据中心——VCE架构
VCE构架:V-Vmware全球销量第一的虚拟化软件;C-Cisco全球销量第一的网络设备;E-EMC全球销量第一的存储设备。VCE构架是业界顶尖厂商联盟,源代码级合作,构建完整数据中心。CISCO提供网络设备和服务器设备,EMC提供存储及安全设备,而VMware则是整个数据中心的节能使者,提供给客户真正需要的技术,有助于虚拟化数据中心的转型。VCE组合,采用通用接口,带动虚拟环境和私有云的普及。VCE在当时还是一个很好的架构,结构清晰、关键冗余,内部带宽高,各类连接线缆少。随着时间的推移、技术的进步,也逐渐出现了一些问题,虽然目前仍在用,但承担的是一些最不重要的业务。原有VCE架构如图2所示。
图2 云数据中心——原有VCE架构
在使用VCE构架中的过程中出现的问题:
(1)“所有鸡蛋在一个篮子里”指的是集中存储的问题,尤其不能异地备份。
(2)资源扩展能力有限。刀片服务器的硬盘、CPU、内存在扩展上都受限,使用久了配件很不好找,整体更换成本也高。
(3)硬件通配性不好,存储磁盘需要专用的,比较贵;存储网络FC,也可以用iscsi。但阵列性能受限主要指虚拟显卡,不是VCE特有的问题,而是早期普遍问题。
3 云数据中心——分布式架构
分布式架构设计相当于集中式架构。集中式架构是由一台或多台主机组成的中心节点。
3.1 分布式架构的优劣势
优势:开发部署运维方便,事务处理方便,没有分布式协作。
劣势:可用性低,一旦服务器宕机,系统立即不可用;扩展性极弱,只能升级单一服务器(比如大型机),成本高,迁移困难。分布式的架构设计:分布在不同网络的计算机上,彼此仅通过消息传递进行通信和协调的系统。
3.2 分布式架构特点
3.2.1 分布性
机器PC等随地域分布,有云计算上的region(区域)和az(可用区)的概念,应用随机器分布。
3.2.2 对等性
默认的分布式机器和应用是对等的,没有主从之分,每个节点都是副本(拷贝)。但可以通过人为制定或者算法决定主从,提高性能容错,但会有一致性问题。
3.2.3 并发性
最大的挑战,比如对共享资源发起并发请求,就会在性能和一致性做一定的妥协。这是最大的难题之一。
3.2.4 缺乏全局时钟
没有先后顺序,分布式环境仅通过网络通信,时间是不对等的,顺序不可确定。表现为时间换算(时区的概念,北京时间是GMT+8,东8区)
3.2.5 故障一定会发生
云数据中心——现在分布式架构图如图3所示。
针对VCE架构出现的问题,2016年使用分布式存储、超融合的方式采用多台同型号X86服务器组成集群,可按提供服务类别分设多个集群。对每个集群中的X86服务器以本地硬盘虚拟出SAN存储提供分布式的存储服务。利用虚拟化软件提供资源管理服务。
3.3 使用特点
(1)大容量SATA盘配合SSD盘。
(2)全以太数据传输。
(3)主流CPU。
(4)可以选配虚拟图形卡等特殊板卡。
(5)管理与应用资源池分离。
(6)桌面用户多数据盘分级保护。
(7)建设特点:
SATA盘单盘可以容量很大且不挑盘,即使多副本存储总体成本也比较低。配合SSD提高速度,我们目前是5%,不到10%,非极限情况下速度不比EMC5500差,如果占比更高还可以快些,但对比单纯的闪盘存储还是差。数据安全也是比较好的,单cache或单盘损坏都没问题。关于以太传输,我们目前用的10G,推荐40G。CPU够用即可,不用太高。根据学校应用特点内存越大越好,本校云桌面集群内存都是768G。建一个支持虚拟显卡的集群,规模比较小,3台,使用英伟达M60卡,提供云桌面服务。将管理集群单独分离,不占用资源,不影响运行,也比较安全。推出了一年多的云桌面服务,针对全体教职员工,与身份系统对接,按部门分类,提供个人安全数据盘和部门数据盘。图4所示为云桌面集群内存方式的变更。
图4 云数据中心集群内存
4 云数据中心——全闪集群
出现的问题:
(1)SATA+SSD的方式在批量复制、维护迁移、灾难恢复时存在性能问题。
(2)因经验不足,网络接口数量及速率皆配置不足,业务流量、管理流量、内部流量无法有效分开,对迁移、灾难恢复等操作有性能问题。
(3)SSD磁盘耐用度低。
(4)2020年针对此问题新增全闪集群。
4.1 目前主数据中心全闪概况
(1)目前共有10台主机+2台备份机,分为两个业务集群(负载均衡,业务可跨集群迁移),目前运行虚机数量305个,主业务运行其上;CPU、内存和存储的使用情况,可知可支撑虚拟机数量能够翻倍,CPU耗用最低。
(2)单台服务器以太网口情况:单台2个万兆+4个40G网口。功能划分:VSAN、Vmotion、management一组,业务数据一组。
使用几年后出现的问题:
(1)虚拟机数量越来越多,业务种类越来越多,使用VMware自有管理平台有效管理压力增大。
(2)根据业务类型细分集群并进行资源调配。
(3)管理平台VMCS(虚拟控制台系统,第三方)。
4.2 管理集群概况
(1)独立设立,故障不影响业务,业务与管理分离。4台。任务:vCenter、AD、CA、运维管理、监控、日志、云桌面管理、NSX、DHCP、SSO。
(2)信息中心办公维护管理开发机群概况:服务器选用情况,采用4台主机服务器,主要用于开发、运维、特殊系统需求,同时对老旧系统留存。
(3)容器平台集群概况:采用3台主机服务器,用于Docker、K8S、Gitlib、Harbor,服务于实验、科研。
(4)数据中心汇总情况:目前有4个数据中心、10+集群,运行虚拟机1200+。
4.3 云桌面情况
(1)自助申请,不强制使用。
(2)用户具有较高权限,可自主安装部分软件。
(3)用户数据安全策略:单独数据盘(备份),部门共享盘。
(4)自助申请系统、用户信息同步系统自主开发。
(5)大规模应用案例:图书馆电子阅览室(资源自动回收)。图5所示为云桌面使用情况。
图5 云桌面使用情况
5 结束语
数据共享中心是高校信息化的核心工程,能够起到消除高校信息化孤岛、实现系统间数据共享的重要作用,同时也有助于实现校园智慧型数据应用的快速发展。本文分析了数据共享中心的现状与不足,提出了数据共享中心中数据交换管理的优化措施和建设方案,旨在提升数据共享中心的稳定性、可靠性和高效性。