APP下载

两方零和马尔科夫博弈策略梯度算法及收敛性分析

2024-03-12王卓李永强冯宇冯远静

浙江大学学报(工学版) 2024年3期
关键词:马尔科夫纳什梯度

王卓,李永强,冯宇,冯远静

(浙江工业大学 信息工程学院,浙江 杭州 310000)

两方零和博弈(two-player zero-sum game)是博弈论中最基本的,同时也是最常见的博弈模型之一.其特点是一个玩家获得的收益必然等于另一个玩家所失去的收益,即参与博弈的2个玩家的收益之和为零.此类博弈问题近年来引起了经济、交通、军事等各个领域的高度重视,其中一些应用效果取得了里程碑式的突破,如针对完全信息围棋博弈的AlphaGo[1],非完全信息回合制扑克博弈的Pluribus[2].

纳什均衡 (Nash equilibrium)[3]是博弈论中的一个重要概念.在均衡状态下,任何玩家都不能仅通过更改自己的策略来获得更多的收益[4].现有研究中,通常根据博弈特征与信息完备性的差异将两方零和博弈分为扩展式博弈(extensive-form game)和马尔科夫博弈(Markov game).马尔科夫博弈(Markov games)被视为马尔科夫决策过程(Markov decision process,MDP)在博弈场景中的推广,适用于描述完全信息、同时移动博弈.其特点为在博弈过程中,下一步的状态只依赖于当前状态,而不依赖于之前的状态.从原理上,多智能体博弈强化学习方法可以分为2类: 基于值函数方法和基于策略方法.对于两方零和马尔科夫博弈,基于值函数方法旨在找到最优值函数,并由其获取相应的平稳纳什均衡策略.在状态转移概率未知的情况下,Littman[5]通过历史数据近似估计Bellman算子,提出Minimax-Q学习,将单智能体强化学习的Q学习算法[6]扩展到两方零和马尔科夫博弈.对于大规模问题,为了解决维度灾难,Fan等[7-9]将函数逼近思想引入Minimax-Q,利用函数逼近对值函数进行近似,但基于值函数的方法收敛速度较慢.神经网络作为强大的非线性函数逼近器,具有自动学习特征的能力,使用神经网络对值函数和策略进行近似可以从原始数据中学习到适合问题的特征表示,从而有效地解决大规模问题中维度灾难的问题.

基于策略的策略梯度方法在MDP中具有最先进的性能[10-11].在策略参数化的设定下,寻找零和马尔科夫博弈的纳什均衡解通常表述为非凸非凹的极大极小优化问题[12-13].Daskalakis等[14]探讨在多智能体竞争性环境中,如何使用独立策略梯度方法(independent policy gradient,IPG)来训练多个智能体的策略,以实现博弈最优解的学习.Nouiehed等[15]提出的嵌套梯度下降方法(nested gradient descent method)通过交替地对每个玩家的策略进行梯度下降来逐步逼近博弈的纳什均衡点,与IPG(该方法中每个智能体的策略被看作是独立的)相类似,两者本质都是单智能体强化学习方法.在纳什均衡的基础上,Fiez等[16]提出双时间尺度算法(two-timescale algorithm),其中追随者使用梯度博弈更新规则,而不是精确的最佳响应策略,该算法已被证明收敛于Stackelberg均衡.然而,该均衡只对应于零和博弈的单边均衡解,并且无法分析同时移动博弈的收敛性.Perolat等[17]针对同时移动博弈,将演员-评论家网络(Actor-Critic network)与虚拟博弈相结合,提出基于样本平均策略的算法并解决了虚拟博弈算法中的收敛问题.然而,在每轮迭代时都须求解一方的最佳响应策略,因此对计算资源的消耗也是巨大的.

针对上述方法的不足,本研究基于额外梯度法[18]提出双方玩家同时进行策略梯度更新的两方零和马尔科夫博弈策略优化算法.1)基于参数化策略,提出马尔科夫博弈策略梯度定理,并进行了严格证明.2)将回报作为状态动作价值函数的无偏估计,基于额外梯度法提出马尔科夫博弈的策略梯度算法,并证明该算法可以收敛到近似纳什均衡.3)针对大规模的Oshi-Zumo游戏,采用神经网络作为参数化策略,验证了算法的有效性.

1 两方零和马尔科夫博弈

1.1 问题描述

两方零和马尔科夫博弈问题可以用一个五元组来描述[19],定义如下:

式中:O表示状态空间;U表示玩家1的动作空间;W表示玩家2的 动作空间;p(s′,r|s,a,b):O×U×W→Δ(O×R) 表示在任意联合动作 (a,b)∈U×W下,从任意状态s∈O转移到状态s′∈O,且玩家1获得奖励r∈R ,玩家2获得奖励 -r的概率;γ为折扣因子,γ∈(0,1.0].玩家1、2的动作分别通过随机策略 π(a|s):O→Δ(U) 和µ (b|s):O→Δ(W) 来选择.每个时刻t,玩家1、2根据当前环境的状态St分别同时选 择动作At和Bt,St∈O,At~π(·|St),Bt~µ(·|St);联合动作送入环境中执行,环境按照概率分布p进行状态转移并给出奖励,即St+1,Rt~p(·,·|St,At,Bt),玩家1的奖励为Rt,玩家2的奖励为 -Rt.回报,即长期累积奖励,定义为

式中:T为终止时刻.

给定联 合策略 (π,µ) ,状态价 值函数Vπ,µ(s):O→R 和状态动作价值函数Qπ,µ(s,a,b):O×U×W→R都定义 为期望回报,即

在上述设定下,玩家1的目标是最大化期望回报,而玩家2的目标是最小化期望回报.在马尔科夫博弈中,每个玩家的回报不仅仅与自己的策略有关,还取决于其他玩家的策略,因此马尔科夫博弈最优策略的定义与MDP最优策略的定义有本质差异.马尔科夫博弈的最优策略通常用纳什均衡来描述,最佳响应策略[20]和纳什均衡策略[21]的定义如下.

定义1 两方零和博弈最佳响应策略.给定玩家2策略 µ,如果玩家1的策略没有比πb更好的,那么称 πb为最佳响应策略,即

相反地,给定玩家1的策略 π,玩家2的最佳响应策略 µb满足

定义2 两方零和博弈纳什均衡策略.如果2个玩家的策略 π*和 µ*都是对方的最佳响应策略,则 (π*,µ*) 为纳什均衡联合策略,即

博弈双方处于纳什均衡中,意味着任何玩家都不能仅通过更改自己的策略来获得更多的奖励,因此纳什均衡可以被视为“对最佳反应的最佳反应”.对于整个博弈过程来说,纳什均衡联合策略即为两方零和马尔科夫博弈的最优策略.在两方零和博弈中,始终存在着纳什均衡解,其等价于一个最大最小问题的优化解[22],即

因此,将纳什均衡的求解过程转化为上述最大最小问题的优化过程.

1.2 贝尔曼方程

为了描述不同时刻以及不同价值函数之间的关系,为后续证明提供理论依据,提出以下引理.

引理1对于两方零和博弈,给定联合策略(π,µ),当前时刻状态价值函数与当前时刻状态动作价值函数之间关系的贝尔曼方程为

当前时刻状态动作价值函数与下一时刻状态价值函数之间关系的贝尔曼方程为

证明:将式(3)所示的状态价值函数的定义展开,结合式(4)可以得到

将回报Rt的定义(式(2))代入式(4),展开可得

对式(12)中的第2项求期望就等于下一时刻的状态价值函数:

2 马尔科夫博弈的策略梯度

为了实现纳什均衡策略的求解,考虑参数化的策略 πθ(a|s) 和µϕ(b|s) ,其中θ和ϕ为可调参数,玩家的目标是最大化自己的期望回报,因此考虑指标函数

式中:ρ0为初始状态的概率分布.那么,博弈问题(式(1))可以转化为如下最大最小问题:

为了利用梯度法求解式(15),须得到策略梯度,即J(θ,ϕ) 分别关于参数θ 和ϕ 的梯度.将MDP的策略梯度扩展到两方零和马尔科夫博弈问题(式(1)),定理如下.

定理1对于两方零和马尔科夫博弈问题(式(1))和参数化的联合随机策略 (πθ,µϕ),式(14)定义的指标函数J(θ,ϕ) 分别关于参数θ和ϕ的梯度为

证明:首先考虑玩家1的策略参数 θ,对式(9)两边求导得到

通过上述推导,可以计算式(14)中指标函数的梯度:∇ϕJ(θ,ϕ)的证明同理,定理1证毕.

由定理1可以得到两方零和马尔科夫博弈中2个玩家策略梯度,从而可以利用梯度方法求解该最大最小优化问题(式(15)).由状态动作价值函数的定义(式(4)),可知回报Gt是的无偏估计,因此给出如下推论.

推论1对于两方零和马尔科夫博弈问题(式(1))和参数化的联合随机策略 (πθ,µϕ),式(14)定义的指标函数J(θ,ϕ) 关于参数θ和ϕ的梯度分别为

证明:以玩家 1的梯度项为例,由式(4)、(16) 可知:

玩家2梯度项的证明同理,推论1证毕.

3 马尔科夫博弈策略梯度算法及收敛性

3.1 求解最大最小优化问题的梯度方法

考虑凸凹函数J(θ,ϕ)=θϕ ,其中θ,ϕ∈R,显然∇θJ(θ,ϕ)=ϕ,∇ϕJ(θ,ϕ)=θ ,且 (0,0) 为该优 化问题的最优解.若使用基于梯度的方法求解式(15),最简单的方法为同时梯度上升下降法(simultaneous gradient ascent-descent),即

式中:[·;·]表示列向拼接,η为学习率.由式(28)以及递归思想,可以计算[θk+1;ϕk+1]二范数的平方:

图1 不同更新规则的探索轨迹Fig.1 Exploration trajectories for different update rules

第2种基于梯度的方法为交替梯度上升下降(alternating gradient ascent-descent),参数 θ、ϕ 的更新是按 顺序进行的,即 θk+1=θk+ηϕk,ϕk+1=ϕkηθk+1,其中第2个更新式的参数ϕk+1在计算梯度时使用了其他参数(θk+1)的更新.该更新过程呈平稳性,不收敛于 (0,0) 并陷入极限环[18],如图1(b)所示.

第3种改进的方法为近端点法(proximal point method),更新形式为 θk+1=θk+ηϕk+1,ϕk+1=ϕkηθk+1.该方法可收敛于该问题最优解,如 图1(c)所示.下面给出简单证明.

令θk+1=θk+η(ϕk-ηθk+1),ϕk+1=ϕk-η(θk+ηϕk+1),则有因此

使用额外梯度法解决该优化问题,相较于同时梯度上升下降、交替梯度上升下降具备良好的收敛性,相较于近端点法具有良好的收敛速度,如图1(d)所示.额外梯度法的核心思想在于通过一个简单的梯度更新步骤逼近即

相比梯度上升下降法,每次迭代,额外梯度法增加一步外推(extrapolation)点的计算,使用外推点的梯度完成当前点的更新.额外梯度法通过外推点的计算加大探索,使得更新迭代时更容易找到逼近最优解的正确方向,具备良好的收敛性.

3.2 马尔科夫博弈策略梯度算法

基于额外梯度法提出适用于马尔科夫博弈的策略梯度算法.该算法使用的策略梯度由式(26)获得,但式中的期望在无模型设定下是无法计算的,只能获得其采样值.因此,在该设定下通过随机策略梯度近似真实策 略梯度,即

基于此,提出马尔科夫博弈策略梯度(Markov game policy gradient,MG-PG)算法,如算法1所示.

算法1 MG-PG算法

3.3 马尔科夫博弈策略梯度算法的收敛性

当目标函数J(θ,ϕ)满足凸凹性时,是单调的.使用额外梯度算法求解式(15)的收敛性在长达几十年的研究中已经被解决.但在马尔科夫博弈问题中,目标函数J(θ,ϕ) 是非凸非凹的,即不满足单调性.基于此,首先提出以下假设.

假设1两方零和马尔科夫博弈(式(1))和参数化的联合策略满足以下假设:

Pethick等[18]给出了一类满足弱Minty变分不等式(weak Minty variational inequality,MVI)的非凸非凹minimax问题的额外梯度型算法.本研究的问题设定中无约束项,因此文献[18]的Assumption I(i)中的正则算子A=0.本研究假设1的条件1)是比一致连续更强的光滑性条件,其限制了策略梯度的局部变动幅度不能超过常量L,满足文献[18]的Assumption I(ii).本研究假设1的条件2) 可以确保 [θ*;ϕ*] 是有限的,其中式(37)是MVI在两方零和马尔科夫博弈下的具体表述.根据推论1可知,随机策略梯度

证明:基于假设1,根据文献[18]定理3.5可知,当λ和αk满足定理2中的取值范围时,由MG-PG算法迭代生成的策略参数序列满足

存在k∈{0,1,···,K},式(39)成立.

4 仿真实验

4.1 实验对象和评估指标

采用棋盘游戏Oshi-Zumo[23]来验证算法MGPG的收敛性.该游戏中有2个玩家,是一种同时移动的零和博弈,其难点在于每次决策时的不确定性和信息不对称性,即每个玩家无法知道对手的决策,需要更加复杂的策略来应对可能的动作.一轮博弈往往须经过多步博弈才能分出胜负,其游戏规则如下: 棋盘上有2N+1个格子一维排列,编号1,···,2N+1,在棋盘中心(第N+1个格子)有一面旗帜,旗帜的移动方向取决于每一轮博弈中玩家1、2的每步博弈结果(移动格数始终为1).如图2所示,玩家1、2初始时各有X枚硬币,每一步,玩家1、2同时出硬币,记为M1和M2,然后比较M1和M2的大小,旗帜始终往出币数少的一方移动,即若M1>M2,旗帜向右移动一个格子;若M1<M2,旗帜向左移动一个格子;若M1=M2,旗帜不移动.每一步博弈后2个玩家的总数减去出币数M1和M2,并开始下一步博弈.比赛一直进行到双方的硬币都用完,或者旗帜被推出棋盘外.获胜者根据旗帜的位置确定-距离旗帜所在的位置近的玩家输掉比赛.如果旗帜的最后位置是棋盘中心,则比赛结果为平局.

图2 Oshi-Zumo在不同设定下的状态变化示意图Fig.2 Schematic diagrams of state of Oshi-Zumo in different settings

Oshi-Zumo的状态由3部分组成: 玩家1的剩余硬币数、玩家2的剩余硬币数和旗帜的位置.旗帜位置由格子编号表示,当旗帜从左移出第1个格子后,旗帜位置为0;当从右移出第2N+1个格子后,旗帜位置为2N+2.当游戏参数确定后,初始状态也是确定的.玩家的动作就是出币数,仅当博弈结束后才获得奖励.玩家1作为max玩家(期望收益为正),获胜则奖励为1;玩家2获胜则奖励为-1,平局则奖励为0.

采用纳什收敛指标[17,24-25]作为联合策略的评价指标.给定联合策略 (π,µ),纳什收敛指标定义为

式中的最佳响应策略由单智能体强化学习算法训练获得.由定义1、2可知,当 NashConv(π,µ)=0 时,联合策略 (π,µ) 达到纳什均衡;当 NashConv(π,µ)<ε,∀ε>0,联合策略(π,µ) 为ε 近似纳什均衡.在下面的实验中,采用单智能体强化学习reinforce算法求解最佳响应策略,即固定一方玩家的策略,对另一方玩家的策略进行训练,直到胜率达到90%或策略参数的更新次数达到5万次.

4.2 表格式softmax参数化策略

在第k迭代轮次,将玩家在状态s下的策略参数拼 接为一个参数向量其中分别表示玩家1、2在状态s下合法动作个数.2个玩家的策略服从指数柔性最大化(softmax)分布[26],即

式中:[·]a表示第k轮次在状态s下对所有不同的合法动作的选择概率依次按照方括号内的规则进行计算.参数的初始值全为0,即初始策略服从均匀分布.

Oshi-Zumo规模设置如图2(a)所示,2个玩家的币数都为6,棋盘的格子数为5.实验中MGPG算法的梯度步长 λ =0.3,αk=0.5,折扣因子 γ=1.0,最大更新次数kmax=106,每次更新采样的局数(轨迹数)n=1,如表1所示.

表1 不同参数化策略设定下的算法超参数Tab.1 Algorithm hyperparameters under different parameterized policy settings

设置10组实验,实验的评估数据如图3所示.图中,k表示策略参数更新的次数,Na表示纳什收敛指标的值,圆点曲线表示10组实验纳什收敛指标的均值及变化趋势,竖线表示10组实验纳什收敛指标的离散程度,竖线的上下界分别由均值加减标准差得到.可以看出,实验中随着更新次数的增加,纳什收敛指标虽然存在一定的方差,但其均值整体呈减缓下降趋势,当更新次数达到约60万次时,纳什收敛指标的均值接近零,此时联合策略达到近似纳什均衡.

图3 策略参数化下MG-PG算法的纳什收敛指标Fig.3 Nash convergence of MG-PG algorithm with policy parameterized

4.3 神经网络参数化策略

在如图2(b)所示的游戏规模下,状态动作空间大小急剧增长,使用表格式softmax参数化策略容易导致实验过程中出现内存溢出的问题.因此,将神经网络作为参数化策略,并通过MG-PG算法训练优化神经网络的参数,最终达到近似纳什均衡.

在神经网络作为参数化策略的实验中,2个玩家的初始币数都是50,棋盘中共有 2×7+1=15个格子,每个玩家最多有51个候选动作(包含出币数为0的动作).因此首先定义维数为(51+51+15)=117的one-hot向量(状态信息)作为神经网络的输入,神经网络输出维数为51.将神经网络的输出进行softmax运算,即得到输入状态下的策略.在该设定下由于其大规模的状态空间和动作集,应该使用更多的隐藏层和更大的层大小.因此采用含2个隐藏层的非线性网络,从输入侧到输出侧,隐藏层分别有256、128个节点,并使用ReLU激活函数、Adam优化器.关于算法的超参数设置,如表1所示.相较于使用表格式softmax参数化策略的算法表现,使用神经网络作为参数化策略由于激活函数的存在,可能出现数值不稳定性的问题,如梯度爆炸或梯度消失.通过使用较小的梯度步长,可以减缓参数的更新,有助于缓解这些数值稳定性问题.同时由于游戏规模较大,其最大更新次数也较大.

策略网络优化流程如下.采用在线学习方式,在第k轮次下,将环境状态st作为输入分别输送到2个玩家的策略网络 πθ和 µϕ.依照策略网络输出的概 率分布,随机得 到动作at和bt,在与环境交互后,得到新 的环境状态st+1.重复以上步骤,得到一条博弈轨迹将该轨迹中的状态 (st)0≤t≤T作为输入依次输送到策略网络 πθ和 µϕ.以策略网络 πθ为 例,输出概 率分布后计算梯度梯度项求和后以步长 λ 更新赋值给临时策略网络,临时策略梯度的计算同理可得.最后通过临时策略梯度以步长αk更新网络参数[θ;ϕ].至此通过算法迭代完成一次策略网络更新.

在神经网络设定下同样设置了10组实验,实验的评估数据如图4所示.与策略参数化设定相类似,尽管纳什收敛指标存在一定的方差,但其均值整体呈减缓下降趋势.当更新次数达到约500万次时,纳什收敛指标的均值接近零,此时联合策略达到近似纳什均衡.实验结果表明,MGPG算法对于大规模博弈问题仍然适用.

图4 神经网络下MG-PG算法的纳什收敛指标Fig.4 Nash convergence of MG-PG algorithm with neural network setting

4.4 对比实验

在基于Oshi-Zumo的实验中,MG-PG在2种参数设定下都展示出较好的性能.为了能够更全面地评估和验证本研究所提出的算法MG-PG,将现有的两方零和马尔科夫博弈策略梯度方法-独立策略梯度方法[23]、嵌套梯度下降方法[24]、双时间尺度算法[25]和演员-评论家虚拟博弈算法[8]在Oshi-Zumo中的表现与MG-PG进行对比分析.实验的游戏规模与神经网络下MG-PG的实验规模相同,即2个玩家的初始币数都为50,棋盘中共有15个格子.

独立策略梯度方法本质上为单智能体强化学习,若2个玩家都使用常用的reinforce算法进行参数更新,则更新式为

式中:ηd为学习率.

实验中玩家策略采用神经网络的形式,参数ηd与MG-PG的 步长 αk保持一致,均为0.3.

嵌套梯度下降方法则将最大最小优化问题(式(15))转化为如下最小优化问题:

因此,嵌套梯度下降方法在每一轮迭代时,先进行一次“嵌套内循环”,近似计算出 θ*后,随后在∇ϕJ(θ*,ϕ) 的方向上更新参数ϕ.实验中玩家策略采用神经网络的形式,超参数同为0.3.

将策略参数为 ϕ 的玩家视为领导者,策略参数为 θ 的玩家视为追随者.根据双时间尺度算法的思想,对领导者和追随者之间进行时间尺度分离.在实验中基于嵌套梯度下降方法,令领导者策略参数更新的超参数为0.1,小于追随者的策略参数更新超参数,并使领导者策略参数更新间隔为10个迭代轮次,以达到领导者的学习速度比追随者慢的效果.

演员-评论家虚拟博弈算法通过Actor-Critic框架对虚拟博弈过程进行随机近似,使得算法能够收敛到纳什均衡.策略与价值函数的更新式如下.

式中:上标i表示玩家标号,ψk为算法的超参数,Bϖ(Q)为最佳响应策略(选择概率函数),

ϖ(·) 为确定 性扰动,Cϖ(Q)为Bϖ(Q) 的平均 值,即

在实验中步长选择为 ηk=0.01,ψk=0.1.

每种算法同样进行10组实验,实验结果如图5所示.每种算法都迭代更新了800万次.可以看出,独立策略梯度方法、嵌套梯度下降方法和双时间尺度算法3种方法在800万的更新次数内不收敛,并且纳什收敛指标也没有明显下降的趋势.3种方法都使用了reinforce算法,因此在10组实验中都呈现出较大的方差.演员-评论家虚拟博弈算法则在实验中表现良好,纳什收敛指标呈现出较为平滑的下降趋势.但该算法在800万次的更新中并未收敛到近似纳什均衡,纳什收敛指标的均值在更新后约为0.50,相较于MG-PG算法在500万次达到约0.15还存在一定的性能差距.同时该算法在训练过程中由于要计算最佳响应策略,对于时间的消耗也是巨大的.不过,得益于Actor-Critic框架值函数提供了对策略的评估,策略改进更加稳定,大大减小了不同实验组策略优化过程中的方差.

图5 4种对比算法的纳什收敛指标图Fig.5 Nash convergence index diagram of four comparison algorithms

综上,单智能体强化学习的思想及其方法在Oshi-Zumo这种同时移动博弈游戏中的表现欠佳.演员-评论家虚拟博弈算法相较于本研究所提出的MG-PG算法收敛速度较慢,但其Actor-Critic框架带来的小方差为本研究今后的工作提供了指导和启示.

5 结语

提出两方零和马尔科夫博弈的策略定理及其相关证明,并基于随机策略梯度和额外梯度法提出适用于马尔科夫博弈的策略梯度算法.该算法在外推点梯度计算阶段,利用已知的博弈轨迹计算外推点的梯度,改善探索方向,使得算法更容易朝正确方向更新;在策略参数更新阶段,利用外推点的梯度更新策略参数.最终在假设1的条件下分析得到该算法的收敛性.

在Oshi-Zumo上的大量实验表明,本研究算法经过一定的迭代轮次可以有效地收敛到近似纳什均衡解.应用神经网络拟合博弈策略,解决了大规模博弈问题.通过对比实验验证了MG-PG算法的优越性和有效性.

如何通过应用Actor-Critic Network减小MGPG算法方差以及如何解决环境部分可观的马尔科夫博弈问题,是未来可以继续研究的方向.

猜你喜欢

马尔科夫纳什梯度
一个改进的WYL型三项共轭梯度法
基于叠加马尔科夫链的边坡位移预测研究
THE ROLE OF L1 IN L2 LEARNING IN CHINESE MIDDLE SCHOOLS
THE ROLE OF L1 IN L2 LEARNING IN CHINESE MIDDLE SCHOOLS
一种自适应Dai-Liao共轭梯度法
基于改进的灰色-马尔科夫模型在风机沉降中的应用
一类扭积形式的梯度近Ricci孤立子
马尔科夫链在教学评价中的应用
爱,纳什博弈人生的真理
基于马尔科夫法的土地格局变化趋势研究