APP下载

广义逆向学习方法的自适应差分算法

2015-02-11刘昌芬韩红桂乔俊飞

智能系统学报 2015年1期
关键词:测试函数高维差分

刘昌芬,韩红桂,乔俊飞

(1.北京工业大学 电子信息与控制工程学院, 北京100124; 2.计算智能与智能系统北京市重点实验室, 北京100124)



广义逆向学习方法的自适应差分算法

刘昌芬1,2,韩红桂1,2,乔俊飞1,2

(1.北京工业大学 电子信息与控制工程学院, 北京100124; 2.计算智能与智能系统北京市重点实验室, 北京100124)

针对差分算法(differential evolution, DE)在解决高维优化问题时参数设置复杂、选择变异策略困难的现象,提出了广义逆向学习方法的自适应差分进化算法(self-adaptive DE algorithm via generalized opposition-based learning, SDE-GOBL)。利用广义的逆向学习方法(generalized opposition-based learning, GOBL)来进行多策略自适应差分算法(Self-adaptive DE, SaDE)的初始化策略调整,求出各个候选解的相应逆向点,并在候选解和其逆向点中选择所需要的最优初始种群,然后再进行自适应变异、杂交、选择操作,最后通过CEC2005国际竞赛所提供的9个标准测试函数对SDE-GOBL算法进行验证,结果证明该算法具有较快的收敛速度和较高的求解精度。

差分算法; 优化; 自适应; 逆向学习; 收敛速度; 精度; 高维; 初始化

DE(differential evolution)算法是由Storn和Price在1995年提出的简单高效的基于群体的随机搜索算法[1],该算法采用实数编码的方式,具有结构简单、易于实现、鲁棒性强等优点,因此,从该算法出现,便吸引了许多相关研究人员的探索[2-5],并在很多领域取得了成功应用[6-8]。在研究过程当中,提出了很多种变异策略以适合求解不同的问题。但是,如何根据实际问题选择最恰当的变异策略的过程是很复杂的。Qin和P.N.Suganthan首次提出自适应差分进化策略[9],之后研究者们进行了很多通过自适应选择DE中的变异策略的研究。而差分算法区别其他算法的最大特点就在于其差分变异算子的使用,该算子具有搜索方向和搜索步长自适应的特点。但是,算法对缩放因子F和杂交概率CR的大小设置很敏感,针对不同的问题需要多次运行选择不同的合适经验值。Abbas在文献[10]中提出了自适应调整交叉概率CR的概念,Omran等在文献[11]中提出了一种运用自适应方法调整缩放因子F的算法(self-adaptive differential evolution ,SDE),该算法中的CR是一正态分布数,提高了算法的性能,减少了控制参数,同时用4种标准测试函数测试后,显示出了比其他差分算法更优的表现性能。除了自适应调整CR和F,Teo[12]提出了自适应种群差分算法(exploring dynamic self adaptive populations in DE, DESAP),该算法中群体大小NP也是自适应变化的。上述这些算法的选择策略是唯一的,很难在众多优化问题中进行推广应用。Qin等提出的SaDE算法,采用广义的随机选择方法对每一个目标向量选择变异策略,并跟随着演化代数的变化按规则进行自适应更新[13],CR根据先前的经验值反馈回来进行自适应更新。但是,随着求解问题的复杂度的增加,种群的搜索空间增大,求解难度势必会加大。Rahnamayan为解此问题,提出了基于逆向学习方法的差分进化算法(opposition based DE, ODE)[14],该算法不仅可以应用到种群的初始化过程,而且也可用到进化过程,实现对群体的逆向搜索,大大增强了种群对搜索空间的利用能力。在国内,很多学者针对标准差分算法存在的早熟收敛和搜索停滞等缺陷进行了研究和改进。吴亮红根据群体在运行过程中适应度方差的大小增加了一种新的变异操作,有效提高了算法的全局搜索能力[15]。陈亮提出改进的二进制差分进化算法,改进算法的变异策略的同时,在运行过程中自适应调整种群规模,提高了算法的优化精度[16]。针对算法在解决高维函数优化中存在的缺陷,刘荣辉引入了阶段交叉差分算法,对交叉因子进行自适应控制,提高了算法的收敛精度[17]。Wang将GOBL引入到差分算法中,改进了ODE算法,提出广义逆向学习差分(enhanced opposition-based DE, GODE)算法用来解决高维的函数优化问题,在算法的鲁棒性、收敛速度、成功率等方面均取得了较好的测试效果[18]。

基于以上分析,文中将GOBL应用到SaDE算法中,提出SDE-GOBL算法,用以解决高维优化问题,该算法能够自适应选择变异策略,较好平衡了DE算法的勘测能力与开采能力。并且利用国际上通用的标准测试函数在不同维度下进行验证,结果表明:该算法在解决高维问题时,收敛速度快,寻优精度高,可以推广应用到实际的优化问题中。

1 DE算法

差分算法起初主要用于求解实数优化问题,它的最重要的贡献是差分变异算子的引用,该算子主要是针对父代个体,将同一群体中两个不同的个体向量进行差分和缩放操作,再与群体的其他个体向量进行操作得到变异个体向量,根据变异操作方式不同分为不同的变异策略。使之与父个体向量进行杂交形成试验向量,最后让这一试验向量的适应值与父个体向量的适应值进行比较,较优者将保存到下一代。通过以上变异、杂交和选择等操作不断进化,适者生存,一直到满足终止条件停止。算法操作过程如下:

1)编码与初始化

2)差分变异操作

3)杂交操作

(1)

式中:CR为交叉概率因子; jrand是介于维数[1,D]之间的一个均匀分布随机整数,用来保证试验向量Ui,G中至少有一维来自变异向量Vi,G,避免与父个体向量Xi,G相同。

杂交操作是为了增强新种群的离散程度,较大的CR值可以加快算法的收敛,同时其取值与所要求解的问题的特性有关系,当自变量相互独立时,可以设置为[0,0.2],相互依赖强偶合时,可设置成接近于1的数。

4)选择操作

通过初始化、变异、杂交操作产生子代新群体以后,运行此操作步骤。主要是利用一对一贪婪选择的方法将子个体向量与相对应的上一代父个体向量比较,淘汰不良个体,保留优良个体遗传到下一代。通常求解最小化优化问题时,算法的选择操作可表示为

式中:f(Xi,G)是个体Xi,G的适应值。采用一对一竞标赛选择,可以保证精英解在演化过程中不会丢失,且更能维持群体的多样性。

2 DE-GOBL算法

2.1 SaDE算法

在解决不同的最优化问题时,实验向量采用不同的DE策略进行迭代将产生不同的效果。SaDE算法将不同特性的策略放在一起形成一个候选策略库,在迭代的过程中,根据一定概率pk从策略库中选择一个变异策略,在之前的迭代中越容易达到最优解的DE策略,越容易在此迭代操作中被选择,而不是通过反复实验来找到。然后再进行杂交操作。算法参数的设置如下:

1)初始化选择概率pk为1/4,利用广义随机选择的方法对每一个目标向量选择相应的变异策略并经过LP次(一个学习周期)迭代演化以后,pk值更新为式(3) :

式中:Sk,G按式(4)计算:

(4)

式中:G(G>LP)是当前的演化代数;nsk,G和nfk,G分别是前一次学习周期中第k个变异策略所产生子个体成功或者失败进入下一代种群的个数;Sk,G为当前种群选择第k个变异策略所产生的子个体成功进入下一代种群的成功概率;设置ε为一个很小的常数,可避免出现零值。

2)每个个体i的缩放因子Fi=rndni(0.5,0.3),是均值为0.5、方差为0.3的正态分布随机数。

3)种群中每个个体选择第k个策略时的杂交概率CRi,k=rndni(CRmk,0.1),如其值不在[0,1]范围内,则采用截断方法限制在这一范围内,CRmk初始为0.5,CRMemoryk为前LP代中第k个策略产生的子个体成功进入下一代时所保存的CR值,经过LP次迭代以后,每一代CRmk用CRMemoryk中所保存的CR值的中间值代替。

Qin在文献[9]中将该算法与传统DE算法以及另外3种自适应差分算法(ADE、SDE、jDE)通过26个有约束条件的优化测试函数进行了比较,结果表明:SaDE算法在获得最优解时有相对较小标准差和更高的成功率,且收敛速度快。所以文中选择改进后的高性能自适应算法,该算法在解决高维问题时,能以更快的速度达到收敛,满足实际工程的需要。

2.2 基于逆向学习方法的最优化方法

根据概率理论,一个点有50%的可能性比它相应的逆向点获得更好的适应值[19]。这样将广义逆向学习方法应用到差分算法中,可以有效利用群体和逆向群体的信息,提高了对种群的原搜索空间的利用能力,可以在不增大种群搜索空间的前提下,增加找到全局最优解的可能性,有效避免了在解决高维优化问题中算法搜索难度大、操作复杂的问题。

Wang将此方法应用在DE算法中,提出了GODE算法。选用9个高维连续最优化问题[20]检验算法的性能,在维数D=50、100、200、500、1 000下,GODE算法比DE、CHC、G-CMA-ES算法运行效果都好,但是在运行F3(shifted rosenbrock's function)、F8(schwefel's problem 1.2)以及F3的混合组成函数F13和F17时,却很难找到最优解。

2.3 基于GOBL的自适应差分算法

为有效利用种群有限的搜索空间,降低寻找最优点的难度,将GOBL运用到SaDE这种高效能的自适应DE算法中,能很好地改善算法在解决高维复杂优化问题的收敛性能。采用GOBL初始化种群,如果随机数rand(0,1)满足小于逆向学习概率p0的条件,就运行GOBL更新种群,否则运行SaDE算法中的变异、杂交操作。

一般来说,选择哪种策略放在策略库中是个很严谨的问题。一个好的策略库应在减少一些不必要的策略的同时,仍可以满足不同实际优化问题在种群进化的不同阶段的需要。为了比较的方便,仍选用Qin在SaDE算法中选用的策略库。

策略库中包含4种变异策略:DE/rand/1/bin、DE/rand-to-best/2/bin、DE/rand/2/bin和DE/current -to-rand/1,4种变异策略的公式如 式(6)~(9)所示。其中,DE/rand/1/bin、DE/rand-to-best/2/bin在很多DE算法的改进工作中频繁使用,是比较经典的两种变异策略;DE/rand/2/bin由于加上了高斯扰动使算法具有很好的探测能力;DE/current- to-rand/1可以更有效地解决多目标函数优化问题。DE/rand/1/bin:

DE/rand-to-best/2/bin:

DE/rand/2/bin:

(8)

DE/current-to-rand/1:

综上所述,SDE-GOBL算法的具体流程如图1所示。

图1 SDE-GOBL算法流程

3 性能分析

3.1 测试函数

为检验文中提出的算法的有效性,采用CEC2005国际竞赛所提供的前9个标准测试函数,这9个测试函数多次用来测试算法的性能,具有不同的特性,可抽象的表示实际生活的不同问题。

F1.Shifted Sphere Function;

F2: Shifted Schwefel’s Problem 1.2;

F3: Shifted Rotated High Conditioned Elliptic Function;

F4: Shifted Schwefel’s Problem 1.2 with Noise in Fitness;

F5: Schwefel’s Problem 2.6 with Global Optimum on Bounds;

F6: Shifted Rosenbrock’s Function;

F7: Shifted Rotated Griewank’s Function without Bounds;

F8: Shifted Rotated Ackley’s Function with Global Optimum on Bounds;

F9: Shifted Rastrigin’s Function.

每一个测试函数具有不同的特征,分别抽象地描述了现实生活的不同问题,其中函数F1~F5是单峰函数,函数F6~F9是多峰函数且极值点的个数非常多,所有的测试函数的最优解皆为0。各个测试函数的详细介绍可参照文献[20]。

以上9个函数都进行了中心偏移旋转,最优值不在原点,不能采用输出结果接近于0的程度作为评价指标,只能采用输出结果与正确结果之间的距离来比较算法的优劣性,这样做是为防止某些算法倾向于优化那些最小值在原点处的函数[16]。因此文中采用解误差测度法评价各个算法的性能,即理想的输出结果与实际输出结果之间的误差距离,定义Derror=f(x)-f(x*),其中,x是算法找寻到的最优解,x*则是目标函数f(x)的已知全局最优解。

3.2 结果分析

SDE-GOBL算法与SaDE算法都是参数自适应差分进化算法,交叉因子F和缩放因子CR在算法运行时自动生成并且调整,为进行公平比较,将两个算法的运行条件设置相同,分别设置维数D=30、50(高维),种群大小NP=50,最大评价次数为10 000×D,独立运行2种算法20次,得到测试函数最优值之和。

1)收敛速度

用MATLAB运行测试函数后,得到仿真图如图2~10,记录找到最优点的迭代次数(如表1所示)。由此可知,SDE-GOBL算法的收敛速度明显高于SaDE算法,特别是在算法收敛初期表现尤为明显。

2)寻优精度

在D=30和D=50下运行9个测试函数20次,分别记录SaDE算法和SDE-GOBL算法找到最优解的次数 (如表2所示)。由表2可知,除了F7以外, SDE-GOBL算法的寻优精度皆优于SaDE算法。特别是在D=50时,效果更加明显。

图2 F1函数的收敛曲线比较

图3 F2函数的收敛曲线比较

图4 F3函数的收敛曲线比较

图5 F4函数的收敛曲线比较

图6 F5函数的收敛曲线比较

图7 F6函数的收敛曲线比较

图8 F7函数的收敛曲线比较

图9 F8函数的收敛曲线比较

图10 F9函数的收敛曲线比较Fig.10 Convergence curves' comparison of F9

表1 找寻到最优值所需迭代次数Table 1 The number of iterations to find optimum

表2 两算法寻优精度比较Table 2 Comparison of two algorithms’ Accuracy

DE算法产生早熟收敛的根本原因是随着迭代次数的增加,种群的多样性快速下降[21]。而在解复杂高维问题时,单纯的增加种群的规模,只会增加算法的运算量,不能从根本上解决早熟收敛问题。文中通过引入逆向学习方法,对算法的初始化种群在进行变异之前进行处理,利用概率论的知识,在不增加种群个数的前提下精炼了初始解,保证了种群的多样性,提高了算法的精度。

对DE算法的3个控制参数:群体大小NP、缩放因子F和杂交概率CR的设置,会对算法的性能产生直接影响,设置不合理将会导致过早收敛或算法停滞。为了弥补此不足,文中采用SaDE算法对参数的设置方法,自适应选择变异策略,各策略根据先前经验值自适应更新CR,使各个策略具有不同的CR,由于GOBL方法的引入,NP的大小不需要再设置在[3D,8D][22],提高了算法的收敛速度。

4 结束语

针对一般差分算法在解决高维优化问题时遇到的求解难度大的问题,首次将广义的逆向学习方法应用到多策略自适应差分算法中,有效地解决了传统差分算法求解难度大、运行速度慢且精度低的问题;同时,利用9个标准的测试函数分别在不同高维下展现了算法的优良性能,具有结构简单、容易实现、收敛快速、鲁棒性强等优点,且算法稳定、成功率高。在该算法中,引入了新的参数p0,这一概率参数的设定是由经验获得,后期可以设计有效的参数自适应策略来更好地解决优化问题,也可以将该算法应用到实际的工程优化问题中,以实现造价低、运行简便等优化目标。

[1]STORN R, PRICE K. Differential evolution: a simple and efficient heuristic for global optimization over continuous spaces[J]. Journal of Global Optimization, 1997, 11(4): 341-359.

[2]ALATAS B, AKIN E. MODENAR: multi-objective differential evolution algorithm for mining numeric association rules[J]. Applied Soft Computing, 2008, 8(1):646-656.

[3]DAS S, ABRAHAM A. Automatic clustering using an improved differential evolution algorithm[J].IEEE Trans on Systems Man and Cybernetics, 2008, 38(1): 218-237.

[4]FEOKTISTOV V. Differential evolution: in search of solutions[M]. New York: Springer Verlag, 2006: 205-276.

[5]CHAKRABORTY U. Advances in differential evolution[M]. Berline: Springer Verlag, 2008: 800-805.

[6]QING A. Differential evolution: fundamentals and applications in electrical engineering[M]. IEEE & John Wiley, 2009: 580-590.

[7]QING A, LEE C K. Differential evolution in electromagnetics[M]. Berlin: Springer Verlag, 2010:508-530.

[8]ONWUBOLU G C, DAVENDRA D. Differential evolution: a handbook for global permutation-based combinatorial optimization[M]. Berlin: Springer Verlag, 2009: 301-320.

[9]QIN A K, SUGANTHAN P N. Self-adaptive differential evolution algorithm for numerical optimization[J]. Proc IEEE Congr Evolut Comput, 2005, 2 (2): 1785-1791.

[10]ABBASS H A. The self-adaptive Pareto differential evolution algorithm[J]. Proc Congr Evolut Comput, 2002, 1: 831-836.

[11]OMRAN M G H, SALMAN A, ENGELBRECHT A P. Self-adaptive differential evolution[J]. Lecture Notes in Artificial Intelligence, 2005, 3801: 192-199.

[12]TEO J. Exploring dynamic self-adaptive populations in differential evolution[J]. Soft Comput, 2006, 10 (8): 637-686.

[13]QIN A K, HUANG V L, SUGANTHAN P N. Differential evolution algorithm with strategy adaptation for global numerical optimization[J]. IEEE Trans Evolut Comput, 2009, 13(2): 398-417.

[14]RAHNAMAYAN S, TIZHOOSH H R, SALAMA M M A. Opposition based differential evolution[J].IEEE Trans Evolut Comput, 2008, 12(1): 64-79.

[15]吴亮红,王耀南,袁小芳.自适应二次变异差分进化算法[J].控制与决策, 2006, 21(8): 898-902.

WU Lianghong, WANG Yaonan, YUAN Xiaofang. Differential evolution algorithm with adaptive second mutation[J].Control and Decision, 2006, 21(8): 898- 902.

[16]陈亮.改进自适应差分算法及其应用研究[D]. 上海:东华大学,2012:39-40. CHEN Liang. Improved adaptive differential evolution algorithm and its applications[D]. Shanghai: Donghua University, 2010: 39-40.

[17]刘荣辉. 多阶段自适应差分进化算法及应用研究[D].上海:东华大学, 2012: 23-29. LIU Ronghui. Multi-stage self-adapting differential evolution algorithm and its application[D].Shanghai: Donghua University, 2010: 39-40.

[18]WANG Hui, WU Zhijian, RAHNAMAYAN S . Enha nced opposition-based differential evolution for solving high-dimensional continuous optimization problems[J]. Soft Comput, 2010, 15(11): 2127-2140.

[19]RAHNAMAYAN S, TIZHOOSH H R, SALAMA M M A. Opposition versus randomness in soft computing techniques[J]. Soft Comput, 2008, 8(2): 906-918.

[20]SUGANTHAN P N, HANSEN N, LIANG J J, et al. Problem definitions and evaluation criteria for the CEC 2005 special session on real-parameter optimization[J]. KanGAL Report, 2005, 2005005.

[21] 贾丽媛,张弛.自适应差分演化进化算法[J].中南大学学报:自然科学版, 2013, 44(9): 3759-3765. JIA Liyuan, ZHANG Chi. Self-adaptive differential evolution[J]. Journal of Central South University: Science and Technology, 2013, 44(9): 3759-3765.

[22]GäMPERLE R, MüLLER S D, KOUMOUTSAKOS P. A parameter study for differential evolution[J]. Advances in Intelligent Systems, Fuzzy Systems, Evolutionary Computation, 2002, 10: 293-298.

刘昌芬,女,1990年生,硕士研究生,主要研究方向为智能控制理论及应用。

韩红桂,男,1983年生,教授,主要研究方向为污水处理过程建模、优化与控制。入选北京市科技新星计划、北京市组织部优秀人才等。申请国家发明专利13项,获专利授权7项。近5年来,发表学术论文30余篇。参与编写专著3部。

乔俊飞,男,1968年生,教授,博士生导师,主要研究方向为智能信息处理、智能优化控制。国家杰出青年基金获得者,教育部新世纪优秀人才,北京市精品课程负责人。教育部科技进步奖一等奖和北京市科学技术奖三等奖各1项,获国家发明专利授权12项。近5年发表学术论文近70篇,被SCI收录15篇。

Self-adaptive DE algorithm via generalized opposition-based learning

LIU Changfen1,2, HAN Honggui1,2, QIAO Junfei1,2

(1.College of Electronic and Control Engineering, Beijing University of Technology, Beijing 100124, China; 2. Beijing Key Laboratory of Computational Intelligence and Intelligence System, Beijing 100124, China)

The problem related to defects of complex parameter setting and difficult selection of mutation strategies existing in the differential evolution (DE) algorithm when solving high-dimensional optimization problem is studied. This paper proposed a new self-adaptive DE algorithm based on generalized opposition-based learning (SDE-GOBL). The generalized opposition-based learning (GOBL) is utilized for the adjustment of initiation strategy on multi-strategy self-adaptive DE (SaDE) algorithm. The corresponding reverse points of each candidate solution are figured out. In addition, the necessary optimal initial population is selected among the candidate solutions and its reverse points. Next, the self-adaptive mutation, hybridization and selection operations are conducted. Finally, nine standard test functions provided in CEC2005 International Competition are applied for demonstrating SDE-GOBL algorithm. The result showed that the algorithm has fast convergence speed and high solution precision.

differential evolution; optimization; generalized opposition-based learning; convergencespeed; accuracy; highdimension; initialization

2013-10-25.

日期:2015-01-13.

国家自然科学基金资助项目(61034008,61203099,61225016);北京市自然科学基金资助项目(4122006);教育部博士点新教师基金资助项目(20121103120020);北京市科技新星计划资助项目(Z131104000413007).

乔俊飞. E-mail:liuchangfen2009@163.com.

10.3969/j.issn.1673-4785.201310068

http://www.cnki.net/kcms/detail/23.1538.TP.20150113.1130.007.html

TP18; O224

A

1673-4785(2015)01-0131-07

刘昌芬,韩红桂,乔俊飞. 基于广义逆向学习方法的自适应差分算法[J]. 智能系统学报, 2015, 10(1): 131-137.

英文引用格式:LIU Changfen, HAN Honggui,QIAO Junfei. Self-adaptive DE algorithm via generalized opposition-based learning[J]. CAAI Transactions on Intelligent Systems, 2015, 10(1): 131-137.

猜你喜欢

测试函数高维差分
RLW-KdV方程的紧致有限差分格式
有向图上高维时间序列模型及其在交通网络中的应用
符合差分隐私的流数据统计直方图发布
解信赖域子问题的多折线算法
一种基于精英选择和反向学习的分布估计算法
数列与差分
基于深度学习的高维稀疏数据组合推荐算法
基于自适应调整权重和搜索策略的鲸鱼优化算法
高维洲作品欣赏
具有收缩因子的自适应鸽群算法用于函数优化问题