APP下载

基于强化学习的无线网络智能接入控制技术

2018-09-21严牧孙耀冯钢

中兴通讯技术 2018年2期

严牧 孙耀 冯钢

摘要:介绍了无线网络中的强化学习算法,认为由于强化学习算法与环境交互并动态决策的特点,其对复杂网络环境有着较强的适应能力;然后针对无线网络中的强化学习方法的应用场景做了概述,并给出了两个基于强化学习的无线接入技术案例:毫米波技术的切换技术和Multi-RAT接入技术。可以看到:智能的无线接入技术由于具备充分挖掘和扩展无线网络资源的潜力,能够显著提高无线网络用户的体验。

关键词: 未来无线网络;切换;接入控制;强化学习

Abstract: In this paper, the application of reinforcement learning in wireless network is briefly introduced. Due to the characteristics of interacting with environment and dynamic decision making, reinforcement leaning algorithm has strong adaptability to complex network environment. Then the application scenarios of reinforcement learning method in wireless network are summarized, and two cases of wireless access technology based on reinforcement learning are given: handoff policy of mmWave HetNets and multi-rat access control. Intelligent access control of wireless network is powerful in exploiting wireless network resources, which can improve the quality of experiences of mobile users.

Key words: future wireless network; handoff; access control; reinforcement learning

当今社会已经迈入信息经济时代,信息技术已成为推动经济结构向多样化消费和低能耗高效发展的重要驱动力。据思科公司预测,到2019年全球移动数据总流量将增长至每月24.3 EB,接近2000年全球互联网总流量的200倍[1]。另据全球移动通信系统(GSM)协会分析[2],到2020年全球支撑物联网的机器对机器通信(M2M)连接数将达到9.8亿,接近2000 年全球M2M 连接数的14倍。无线通信网络在面临无线资源趋于枯竭的同时,正在经历着前所未有的高增速无线服务需求与低效率无线服务供给之间的矛盾。

未来无线通信将利用复杂异构网络来支持多样化应用场景,包括连续广域覆盖、热点高容量、高可靠低时延以及低功耗巨连接等。由于用户终端性能和业务需求的不同,用户体验质量(QoE)在不同通信场景也存在极大的差异性。出于成本和兼容性的考虑,未来无线网络将长期处于多网共存的状况,包括2G、3G、4G、5G、Wi-Fi 等,由于不同网络利用不同的无线接入技术,因而形成了接入技术的差异性。同时,为了进一步提升网络的容量,需要在传统接入站点的基础上引入Micro、Pico、终端直通(D2D)、移动自组织(Adhoc)及小蜂窝等接入站点,因而形成了对网络的重叠异构覆盖。网络的高密度部署和多网络共存使得复杂异构网络下的无线干扰环境变得更加复杂,并对无线接入网的资源调度和控制管理提出了更高的要求。

传统的无线接入技术在“网络-频谱”的静态匹配关系下对网络进行规划设计和资源配置。设备的接入往往基于某一参数(如信号强弱、区域位置)选择单一接入网络和固定接入站点。由于复杂异构网络中海量用户行为的随机性,不同网络的业务需求呈现出极大的时空动态变化特性。静态的“网络-频谱”匹配使得网络容量无法满足变化的网络业务需求,大大地限制了无线网络的接入能力,并导致用户接入体验差等问题。

为根本性地提高无线网络接入能力,必须打破传统的无线资源管理和服务接入控制的僵化机制,研究智能的无线接入理论与技术,充分挖掘和擴展无线网络资源的利用潜力,显著提高无线网络用户的体验。在无线网络中,由于用户行为以及网络的动态性和复杂性,使得接入控制和资源分配是非常具备挑战性的[3]。人工智能(AI)技术,比如机器学习,赋予计算机分析环境并解决问题的能力,并提供了一种有效的方法来处理动态性高、复杂度明显的问题[4]。

1 强化学习在无线网络中 的应用

强化学习是一种在非确定环境下做决策的强劲的工具[5]。Google Deepmind最近所研发的AlphaGo以及AlphaGo Zero所使用的强化学习在围棋这类动态性明显、环境信息复杂的博弈游戏中表现良好[6],并且取得较好的成绩。在异构网络接入控制的过程当中,由于网络的动态性导致了决策过程也必然是动态性的,我们需要主体和环境进行频繁交互、感知,从而智能化地协调用户和基站的决策行为。因此,强化学习由于其所具备的特点被我们利用到异构网络的决策过程中也是顺其自然的。

1.1 强化学习的分类

(1)根据强化算法是否依赖模型可以分为基于模型的强化学习算法和无模型的强化学习算法。这两类算法的共同点是通过与环境交互获得数据,不同点是利用数据的方式不同。基于模型的强化学习算法利用与环境交互得到的数据学习系统或者环境模型,再基于模型进行决策。无模型的强化学习算法则是直接利用与环境交互获得的数据改善自身的行为。两类方法各有优缺点:一般来讲基于模型的效率比无模型要高,因为智能体可以利用环境信息;但是有些无法建立模型的任务只能利用无模型强化学习算法,因此无模型强化学习算法更具备通用性。

(2)根据策略的更新和学习方法,强化学习算法可分为基于值函数的强化学习算法、基于直接策略搜索的强化学习算法以及Actor-Critic(AC)的方法。所谓基于值函数的强化学习方法是指学习值函数,最终的策略根据值函数贪婪得到。也就是说,任意状态下,值函数最大的动作为当前最优策略。基于直接策略搜索的强化学习算法,一般是将策略参数化,学习实现目标的最优参数。基于AC的方法则是联合使用值函数和直接策略搜索。

(3)根据环境返回的回报函数是否已知,强化学习算法可以分为正向强化学习和逆向强化学习。在强化学习中,回报函数是人为指定的,回报函数指定的强化学习算法称为正向强化学习。很多时候,回报无法人为指定,如无人机的特效表演,这时可以通过机器学习的方法由函数自己学出来回报。

1.2 强化学习在无线网络中的应用

考虑到无线网络的特殊应用场景,在基于图1的分类下,我们进一步按照无线网络的特点对强化学习进行分类,如图2所示。首先由于受限于网络中有限的频谱资源,用户总是以竞争的关系接入到网络中,那么资源调度、小区切换等考虑用户QoE的问题往往可以建模成一个多主体马尔科夫决策过程(MDP);然后考虑到网络状态空间变化基于时间的连续性或离散性,可将网络决策过程建模为连续时间或者离散时间MDP,连续时间MDP需要决策做到快速反应,尽量做到在线学习;再者,基于网络动作空间的连续性或离散性,有分别基于策略迭代和值迭代的强化学习方法;最后考虑到传统的强化学习方法利用到网络环境中的一些不足,我们可以和深度学习结合起来做一个改进。

根据做决策的时序先后,我们可以把网络中接入用户的决策分为基于多主体的序贯博弈过程或同时博弈过程,如图3所示。具体来说,由于普通的强化学习本身就是基于MDP建模,并且解决的是序贯博弈的问题。为了解决同时博弈的问题,我们可以采用Nash Q-learning算法[7]。在Nash Q-learning的算法中,所有的决策主体在同一个决策时间从一个随机的决策开始去尝试学习它们的最优Q-value。为了达到这样的目的,每一个主体都通过其他主体的Q-value来更新自己的决策,直到达到纳什均衡点。例如:在文献[8]中,作者在认知无线mesh网络中考虑在尽可能保证主用户的服务质量(QoS)條件下,为同时接入的次级用户分配功率资源和频谱资源。考虑到次级用户之间的竞争关系(博弈关系),采用了基于多主体的Nash Q-learning算法,并得到较好的结果。在决策空间集较小,并且主体数量较少的情况下,Nash Q-learning是一种很好的用于解决多主体同时博弈的算法。

在无线网络中,经常存在动作(决策)空间过大的现象,例如:在时频资源块分配问题中或者在长期演进(LTE)中非连续接收(DRX)cycle长度的设置问题中。如果我们把频谱资源或者cycle的长度范围划分为较小的决策单元,那么就会使得策略空间异常大,会消耗大量的计算资源。如果我们能通过策略迭代用更平滑的手段去搜索最优策略,会显著增加学习效率,更加贴合无线网络中需求快速决策的特点。

基于状态空间在时间上的连续性或离散性,我们可以把MDP建模成连续时间上的MDP或离散时间上的MDP。连续时间MDP是基于时间序列连续的马尔科夫过程,其依然具备马尔科夫性。连续时间MDP和离散时间MDP区别在于时间指标参数从离散的[T={0,1,2...}]改为连续的实数[T={t|t>=0}]。当我们考虑小时间尺度上的网络问题,由于用户流的不间断涌入,信道质量的无规律变化等都会造成网络状态的频繁波动。因此快速决策就变得尤为重要。这里基于连续空间较好的算法是AC算法。AC较好地平衡了值迭代和策略迭代这两种方法。例如:文献[9]中,作者考虑把基于流量变化下的基站开关操作建模为一个连续状态的MDP。考虑到用户的接入流量是一个连续变化的过程,那么整个网络的状态也相应具有很强的动态性和连续性。所使用的AC算法在该工作中不仅加快了学习速率,TD-error还具备预测的功能性。

无线网络中,强化学习还可以和深度学习结合起来使用,两者各有优缺点。强化学习本身由于状态空间过大会导致学习时间较长(维度诅咒),在复杂的无线网络环境中,由于网络状态复杂,单纯的强化学习由于算法收敛过慢并不是十分贴合。基于神经网络的深度学习方法,可以利用历史数据对下一时刻的用户行为或者网络状态进行预测。但是,尽管深度学习能够提供较为精准的趋势分析和模式识别,也很难推导出与数据完全匹配的分布函数,在无线网络中带来决策上的明显失误,使得数据失去其应用价值。此外,为了及时保存和处理蜂窝网络数据,基站作为中心控制器需要存储大量的蜂窝网络数据,需要消耗大量的存储和计算资源。因此,我们可以将深度学习利用起来为小时间尺度上的网络决策提供先验信息,从而加速强化学习算法的收敛速度。

2 智能化接入控制案例分析

我们考虑两种智能化的接入控制技术作为案例研究:(1)针对毫米波异构蜂窝网我们提出了一种基于机器学习的智能切换策略,在保证用户服务质量的前提下,减少不必要的切换次数。针对单个用户,在强化学习方法中采用基于置信区间上界(UCB)算法的基站选择策略,可以降低某个用户的切换次数。(2)我们考虑将不同的QoS需求的用户接入到蜂窝网和Wi-Fi共存的异构网络中。为了在复杂和动态环境中最大化系统吞吐量并且同时满足用户QoS需求,我们利用基于多主体强化学习的智能多无线电接入技术,通过动态感知网络环境,来为每个用户分配相应的信道资源。

2.1 基于毫米波技术的智能切换技术

(1)强化学习的奖励函数设计

由于处在同一服务类型的用户切换准则相近,在经过一段时间的学习之后,回报函数期望的估计值具有较高的准确性。

(3)基站选择策略

由于强化学习中的定理——探索和利用,我们不能够总是选择当前回报函数期望值最大的基站进行切换。通常,我们用Regret来衡量强化学习中的一个策略的优劣程度。Regret是指所采取的策略与最优策略之间的差距。在我们的这个问题中,UE n在策略π下在执行了W次切换后的Regret可以表示为:

我们考察了毫米波异构网中智能(SMART)切换策略下的性能,并与下面两种传统策略进行了对比:基于速率的切换策略(RBH)是每次用户发生切换时总是选择当前可以提供最大传输速率的基站进行切换;基于干扰加噪声比(SINR)的切换策略(SBH)是用户总是选择可以提供最大信号SINR的基站进行切换。图4代表了这3种切换策略下的系统总的切换次数/系统吞吐量与毫米波小基站(mm-FBS)所占比例λ之间的关系。通过图4可以看出:我们可以通过较小的系统吞吐量的损失而带来较明显的切换次数的降低。

2.2 Multi-RAT智能接入技术

为了在复杂和动态环境中最大化系统吞吐量并且同时满足用户QoS需求,我们利用基于多主体强化学习方法的智能多无线电接入(SARA)技术,通过动态感知网络环境,来为每个用户分配相应的信道资源。

(1)场景描述

我们研究的场景是蜂窝网小基站(SBS)和Wi-Fi热点共存的场景。LTE下行执行正交频分多址的传输方式(OFDMA),其频谱资源包含很多的时频资源块(RB),又叫做子信道。在传输的过程中,非连续波段的频谱可以利用传输数据流。为了保护正在进行的会话流,我们假设新到的业务流必须在没有多余频谱资源的情况下进行等待。基站作为中心控制器是能够获取全局的网络信息,包括用户的QoS需求和网络环境信息。由于网络的动态性和跨无线电技术(RAT)的资源调度复杂特性,多无线电技术的聚合需要更加智能化的技术支撑。

(2)基于多主体强化学习的Multi-RAT接入机制

多无线电接入过程是一个多主体的随机过程[9]。在多主体的环境中,我们可以观测到其他所有主体所做的决策已经反馈的回报值。基于该多主体的随机过程,和图5提出的两层决策框架,无线电/信道选择过程(RSP)和资源分配过程(RAP)中分别存在着同时博弈和序贯博弈的过程。我们采取Nash Q-learning算法[9]以及蒙特卡洛树搜索(MCTS)方法[10]来解决这两个博弈的相关问题。

我们把接入过程建模成一个基于半马尔科夫(SMDP)的强化学习模型。具体来说,在我们的工作中有两个决策阶段,如图5所示:第1階段为RSP,该阶段的目的在于尽可能地去避免碰撞和乱序情况的发生,从而压缩决策空间。当我们的算法收敛后,我们就开始第2阶段——RAP,在该阶段中,基于有限的网络资源和多样的用户喜好,我们考虑去使用有限的信道资源为用户提供合适的服务,并且使得系统平均吞吐量最大化。在这一阶段中,我们假设在蒙特卡洛树搜索中,每一个节点s包含了[{r(s,a),N(s,a),Q(s,a)}]的信息,其中[r(s,a)]是即时的奖赏值用来衡量该资源分配决策的好坏,[N(s,a)]是节点的被访问次数,[Q(s,a)]是该节点的Q-value。在决策的搜索过程中,用到了上界信心树搜索(UCT)[11]方法。每个节点所需要满足的是单个用户流的QoS需求,根节点所需要满足的是整个系统的吞吐量的最大化。

我们使用了下面的一些调度技术作为比较:多载体的比例公平调度算法(PFSMTS)[12];LTE作为辅助传输的算法(LAA):在该算法中,Wi-Fi作为流量优先卸载的频段,LTE作为辅助频段;在线学习(OLA):对SARA中的用户进行流式处理。

从仿真图我们得到的结论分别是:如图6a)所示,SARA所需的收敛学习次数随着用户数量的增加而增加,复杂度也随之上升。考虑到小时间尺度调度特性,我们可以设置在短时间内进行资源调度,这样相应进入用户数量也较少,算法收敛较快,网络性能容易被满足。如图6b)所示,SARA的系统吞吐量性能明显要高于其他的调度算法(当用户数量大于3的时候),这意味着SARA这样的智能化的LTE-WiFi聚合方式可以在动态的环境中明显地提高系统资源的利用率。

3结束语

本文中,我们简要介绍了强化学习,并研究了强化学习在无线网络中的一些应用。我们给出了两个针对复杂异构无线网络、动态网络环境下的智能接入技术。从仿真结果来看:和传统的接入控制算法相比,我们提出的智能化接入技术可在增加很小代价的情况下提升较大的网络性能。

参考文献

[1] Cisco. Visual Networking Index: Global Mobile Data Traffic Forecast Update 2014-2019[R], 2015

[2] GSM Association. The Mobile Economy Report[R],2015

[3] CAO B, HE F, LI Y, et al. Software Defined Virtual Wireless Network: Framework and Challenges[J]. IEEE Network, 2015:29(4): 6-12, 2015.DOI: 10.1109/MNET.2015.7166185

[4] SIMON P.Too Big to Ignore: The Business Case for Big Data[M].British: John Wiley & Sons, 2013

[5] LITTMAN M L. Reinforcement Learning Improves Behavior from Evaluative Feedback[J] Nature, 2015,521(7553):445-451

[6] SILVER D, HUANG A, MADDISON C J, et al. Mastering the Game of Go with Deep Neural Networks and Tree Search[J].Nature, 2016, 529(1):484-489

[7] HU J, WELLMAN M P. Nash Q-Learning for General-Sum Stochastic Games [J]. Journal of Machine Learning Research, 2003, 4(6):1039-1069

[8] CHEN X F, ZHAO Z F, ZHANG H G. Stochastic Power Adaptation with Multi-agent Reinforcement Learning for Cognitive Wireless Mesh Networks[J]. IEEE Transactions on Mobile Computing, 2013, 12(11):2155-2166.DOI: 10.1109/TMC.2012.178

[9] LI R, ZHAO Z, CHEN X, PALICOT J, et al. TACT: A Transfer Actor-Critic Learning Framework for Energy Saving in Cellular Radio Access Networks [J]. IEEE Transactions on Wireless Communications,2014,13(4):2000-2011.DOI: 10.1109/TWC.2014.022014.130840

[10] SILVER D, HUANG A, MADDISON C J A, et al. Masteringthe Game of Go with Deep Neural Networks and Tree Search[J]. Nature, 2016, 529(1):484-489

[11] ROSIN C D. Multi-Armed Bandits with Episode Context[J]. Annals of Mathematics and Artificial Intelligence, 2011, 61(3):203-230

[12] KIM H, KIM K, HAN Y, et al. A Proportional Fair Scheduling For multi-carrier Transmission Systems[C]//Vehicular Technology Conference. USA,2004,(1):409-413