一种基于权重优化的σ策略的微粒群优化算法
2012-05-12李桂梅
何 静,李桂梅
(湖南商学院计算机与电子工程学院,湖南长沙410205)
微粒群算法(PSO)最早是由美国James Kennedy和Russell Eberhart于1995年提出的一种智能化计算方法[1]。PSO算法自提出以来,受到了国际上相关领域众多学者的关注和研究。短短十几年,PSO算法的研究已经获得了很大的发展,在这个领域已经出现了大量的研究成果[2,3,4]。本文针对微粒群算法易于陷入局部最优的缺点,提出了一种新的更容易实现并且具有更好的全局搜索能力的算法。
1 标准PSO算法
在PSO中,将个体看作具有位置和速度的粒子,其中粒子的位置代表问题的解。从初始群体出发,粒子在搜索空间中连续飞行,并根据自己和同伴的飞行经验不断地调整位置和速度,使自己渐渐接近最优解。
PSO初始化为一群随机粒子(随机解),然后通过迭代找到最优解。在每一次迭代中,粒子通过跟踪两个“极值”来更新自己。第一个就是粒子本身所找到的最优解,这个解叫做个体极值pbest,另一个极值是整个种群目前找到的最优解,这个解叫全局极值gbest。在找到这两个最优值时,粒子根据如下的方程来更新自己的速度和位置:
式中,c1和c2是加速常数,ω是惯性权重,r1和r2是介于[0,1]之间两个相互独立的随机数,xi(t)是粒子 i的位置,vi(t)是粒子i的速度,pi(t)是粒子i所经历过的最优位置,pg(t)是整个种群所经历过的最优位置。
2 σ策略算法
在σ-PSO算法中,用相位角的增量代替速度的增量,通过绘制相位角来确定微粒的位置。σ-PSO算法可以用矢量符号描述如下:
式中 σij∈(σmin,σmax),Δσij∈(Δσmin,Δσmax),xij∈(xmin,xmax),f是一个单调映射函数,i=1,2,…s,j=1,2,…,n。我们假设全局最优粒子不在边界上。s,c1,c2,ω,r1(t),r2(t),xi(t)的含义同式(1),(2),n是搜索空间的维数。σi(t)是粒子 i的相位角;Δσi(t)是粒子 i的相位角增量;σib(t)是粒子i个体极值所对应的相位角;σg(t)是整个种群粒子的全局极值所对应的相位角;Fi(t)是粒子i的由适应值函数所决定的适应值;Fib(t)是粒子i的个体适应值极值;Fg(t)是整个种群的全局适应值极值。
那么σ-PSO算法的算法描述如下:
3 大学生评价的权重优化模型
我们将大学生综合素质测评的评估指标分为5个部分:思想道德素质(包括政治观、世界观、人生观、价值观、道德观、法制观),专业素质(包括学习成绩),身体素质(课外活动,体育成绩,体质),心理素质(包括适应能力,抗压能力和协调能力),发展性素质(包括协作能力,实践能力,创新能力,管理能力,技能,专长)。为了公正地评价大学生,5个评估指标所占的权重就非常关键。我们假设思想道德素质的权重为x1,专业素质的权重为x2,身体素质的权重为x3,心理素质的权重为x4,创新和实践能力的权重为x5,现在的问题是找到一组非负的权重 x1,x2,x3,x4,x5,满足条件 x1+x2+x3+x4+x5=1。我们获得了如下公式所示的权重优化模型:
在这个公式中,决策空间如下:0≤aK≤xK≤bK≤1,k=1,2,…,K-1。K是指标的总数;P是参与权重判断的教师的总数;Q是参与权重判断的学生的总数;s是教师的权限系数;t是学生的权限系数,xp,k是由第p个老师决定的第k个指标的权重;xq,k是由第q个学生决定的第k个指标的权重;ak是第k个指标的最小权重;bk是第k个指标的最大权重。
4 实验结果
我们用新的算法来解决权重优化。用式(5)来描述问题,试验数据来自对湖南商学院学生的问卷调查和个人评价。为了测试新算法的有效性,我们以试验数据为基础,新算法的计算结果与标准PSO算法的对比如表1-3所示。
表1 两种算法的1级指标的权重平均值和误差对比
表2 两种算法的思想道德品质的2级指标的权重平均值和误差对比
表3 两种算法的发展性素质的2级指标的权重平均值和误差对比
由此可见,由新算法计算出的指标权重能反映出湖南商学院学生的综合素质,而且还可以根据不同学院的具体条件设计相应的评估指标,然后在给定的测试值的基础上运行评估计算,此时也可以较好地反映学生的综合素质,与给定的测试值相比较,由新算法计算出的指标权重在进行学生综合素质测评中能更公平地反映出学生的综合素质。
5 结束语
除了具有PSO算法的优点之外,新的算法扩充了搜索空间,而且也不太复杂。通过分析权重优化的测试结果,我们得出了结论,那就是新的算法在功能优化方面具有更大的功效。在处理优化问题方面,新的算法优于标准PSO算法。
[1]Clerc M.The Swarm and the Queen:Towards a Deterministic and Adaptive Particle Swarm Optimization[M].Proc.ICEC.Washington,DC,1999:1951 -1957.
[2]Eberhart,RC,Kennedy,J.A New Optimizer Using Particle Swarm Theory.Proc.6th Int.Symp.on Micro Machine and Human Science[J].IEEE Service Center,Piscataway,NJ,1995:39 -43.
[3]Fan,SKS,Zahara E.A Hybrid Simplex Search and Particle Swarm Optimization for Unconstrained Optimization[J].Eur.J.Oper.Res,2007,181(2):527 - 548.[doi:10.1016/j.ejor.2006.06.034]
[4]Ho SL,Yang SY,Ni GZ,et al.An Improved PSO Method with Application to Multimodal Functions of Inverse Problems[J].IEEE Trans.on Magn,2007,43(4):1597 -1600.[doi:10.1109/TMAG.2006.892108]
[5]Kennedy J,Eberhart RC.Particle Swarm Optimization.Proc[C].5th Int Conf.on Neural Networks.IEEE Service Center,Piscataway,NJ,1995:1942 -1948.
[6]Kennedy J,Eberhart RC.Swarm Intelligence[M].Morgan Kaufmann Publishers,Inc.,San Francisco,CA,2001.