控制和用户面分离架构的核心网容灾建设分析
2020-11-24宋鼎中国联合网络通信有限公司河南省分公司网络发展部
宋鼎 中国联合网络通信有限公司河南省分公司网络发展部
一、引言
随着移动互联网的深入发展,以及“提速降费”政策的持续推进,各种移动创新业务如雨后春笋般蓬勃发展,这对网络带宽、时延、业务部署成本及效率提出了新的要求。
在现有网络架构中,传统GW 以集中的方式部署,媒体面数据传输距离长,转发时延大,新设备新业务上线周期长,导致用户体验不佳。
3GPP 提出了C/U 分离(CUPS)的解决方案,将GW-C 面和GW-U 面分离,各自独立部署。GW-C 面集中部署在中心数据中心;GW-U 可以靠近用户按需下沉部署。
对于5G 网络,其在设计之初就采纳了天然的C/U 分离架构,并结合了SBA(服务化架构)的理念。3GPP 定义的5GC 标准架构中,5G 核心网将用户面设计为独立的UPF(用户面功能)服务,而控制面进一步细分为各类服务,UPF 服务可以快速根据实际需要部署一个或者多个,其部署位置基于业务流量进行规划,可集中部署,也可下沉到边缘进行分布式部署,从而满足5G 大带宽和低时延的应用场景。
二、传统SAE-GW 网络现状以及问题分析
传统设备下沉存在着投资效率低、网络调整复杂、开通周期长、无法向5G 演进等缺点。
基于NFV 的CUPS 是解决当前网络问题的最佳解决方案。随着地市融合CDN 改造,以及OTT 视频cache 功能的实现,PGW-U 下沉到南阳本地流量优先从本地疏导。能够有效提升4G用户的业务体验、减少对承载网的压力。
NFV(Network Function Virtualization)是采用虚拟化技术、基于通用硬件实现电信功能节点的软件化,是未来通信网络的基础技术。核心网云化后可以有如下好处:
1、通过软硬件解耦,软硬件可以独立演进;
2、硬件基于通用COTS 设备来部署,硬件设备的更新速度也大幅加快;
3、云资源池的部署方式,大幅降低单位计算/网络/存储的成本(借助公有云降成本);
4、解耦后更换软件,厂家硬件可以重用,避免厂家锁定;
5、解耦后软件的运行环境稳定,没有更换平台之忧,降低了软件开发难度,加快了软件的特性开发速度。
三、河南联通云化融合核心网CUPS 项目试点方案
为了验证NFV、CUPS 架构和性能,河南联通在2019 年初进行了CUPS 试点,试点基于NFV 架构的服务器部署融合核心网。本期项目在郑州建设一个资源池承载xGW 控制面,在南阳建设两个资源池承载xGW 媒体转发面,应用软件采用2G/3G/4G/5G 融合核心网(Common Core)版本。
郑州CUPS 控制面一个资源池、南阳CUPS 媒体转发面两个资源池,共44 台服务器,郑州和南阳共用一套NFVO/VNFM/vEMS。郑州为控制面,部署20 台服务器(17 台计算型服务器和3 台分布式存储服务器),部署MANO、vEMS、vCG 和vGW-C;南阳为媒体面,每个资源池部署12 台计算型服务器,部署CU 分离GW-U;
容灾方面考虑
(一)GW-C 的容灾
NFV 建设初期,在很长一段时间内,传统平台和NFV 平台将长期共存,将面临着传统网元和云化网元是独立组POOL 还是混合组POOL 的问题。混合组POOL 更加具备优势,无须改变现网POOL 结构,可以实现平滑改造,实现业务无损迁移,也具备灵活调整传统平台和云化平台的容量调整能力。
本次试点两个GW-C 与现网GW 组成POOL 进行容灾,现网MME 发现某GW-C 故障(如echo 消息长时间无响应)后,要求UE重新attach,而后选择其他可用的GW-C 接入业务。
本次试点验证传统平台和云化平台混合组POOL 场景。本期项目在郑州建设一个资源池承载xGW 控制面,应用软件采用中兴2G/3G/4G/5G 融合核心网(Common Core)版本。下沉到南阳的xGW 与洛阳大区xGW 组POOL,将南阳xGW 地址加入DNS 解析,南阳本地流量优先从本地xGW 疏导,洛阳xGW 作为容灾保障网络安全。下图红色轮廓区域(南阳市)使用CUPS 携带业务。混合组POOL 的情况为后续规模商用NFV 提供经验。
(二)GW-U 的容灾
本次试点所有C 面和U 面覆盖区域均为南阳,U 面有两个逻辑节点连接到同一个C上,这些UP 在图中对应U_Group,某个U_Group 只挂一个C 下。
U_Group下的GW-U 完全等价,当其中一个GW-U 宕机后,另外一个GW-U 可以完全接管业务。
GW-C 检测到其下所有GW-U 宕机时,释放在线用户,关闭echo 检测让MME 和其它GW 认为GW-C 宕机,回收在线用户,这样MME 就不再分担新接入的用户。
GW-C 的Recovery 增加,周期性尝试和UP 建立关联。后续,当GW-C 和UP再次成功建立关联,则由U 面可用,启用echo 功能(主动发/响应),携带变化后的recovery,让MME 知道GW-C 可用。
本次试点将验证U_Group 内的GW-U 容灾以及GW-C 下所有GW-U 宕机场景的容灾场景。
(三)DC 之间的容灾
除网元间容灾外,本次试点还验证了U 面DC 之间的容灾,在南阳张衡路机房和工业路机房各建立一个DC,将验证其中一个DC 宕机情况下,另外一个DC 内的GW-U 能否顺利的承接业务。
四、试点成果以及亮点
2019 年8 月初,该试点正式商用割接后,正式承接南阳地区40万用户业务。割接后设备运行平稳,各项业务指标正常,流量达到20Gbps。
割接期间,根据测试用例进行了多次容灾倒换测试,C 面之间的容灾与传统网元相同。U 面容灾着重验证了CU 之间瞬断、中断以及C 面对U 面的选择等情况,瞬断对业务无影响,中断对业务有影响,C面会自动选择可用的U 面。
用户规模割接上线后,各业务性能机容灾机制运行正常,能充分保障现有业务的平滑迁移;同时,取号平台业务实现顺利迁移,充分验证了CU 分离架构下对原有2I2C 业务架构影响,为后续规模部署提供了成熟的解决方案。