APP下载

强Wolfe 条件下一类修正FR 共轭梯度法

2015-05-09张鹏

张鹏

(重庆师范大学数学学院,重庆401331)



强Wolfe 条件下一类修正FR 共轭梯度法

张鹏

(重庆师范大学数学学院,重庆401331)

摘要:通过适当修正Fletcher-Reeves( FR)方法,提出了一类修正FR共轭梯度法方法( MFR*),并证明了MFR*方法在强Wolfe线搜索下具有充分下降条件和全局收敛性.

关键词:无约束优化;共轭梯度法;充分下降性;全局收敛性

0引言

考虑无约束优化问题:

其中f: Rn→R是连续可微的函数.共轭梯度法因为迭代简单,存储量小,因此常被用来求解具有问题( 1)形式的大规模优化问题.共轭梯度法的一般迭代格式为

其中,‖·‖为欧几里得范数,yk-1=gk-gk-1.

在共轭梯度法的许多理论分析和数值实现中,常常采用非精确线搜索,如强Wolfe线搜索.强Wolfe线搜索要求步长k满足

敖卫斌[6]提出一种修正的DY共轭梯度法的全局收敛性,并证明了全局收敛性;黎小林[7]提出一种Glodstein条件下的修正CD共轭梯度法并证明了全局收敛性.

Zhang[8]提出一种修正的PRP方法,其中k被定义为

并证明了NPRP在强Wolfe线搜索下的充分下降性和全局收敛性.

最近,Jiang[9]提出一种修正的FR方法( MFR方法),其中k具有如下形式

证明了MFR不依赖线搜索,总是产生一个下降方向,并且在强Wolfe线搜索下全局收敛.

受Zhang[8]和Jiang[9]的启发,构造一类如下的修正FR方法,共轭梯度参数k具有如下形式

第2部分给出MFR*算法;第3部分证明了MFR*算法的充分下降性和在强Wolfe线搜索下的全局收敛性.

1算法设计

MFR*算法:

Step1如果‖gk‖≤,则算法终止;

Step3令xk+1=xk+kdk,gk+1=g( xk+1),如果‖gk+1‖≤,则算法终止;

Step4由式( 3) ( 6)计算dk+1,置k: =k+1,转Step2.

2 MFR*算法的收敛性

假设B目标函数f( x)在水平集L的一个领域N内连续可微,且其梯度函数g满足Lipschitz条件,即存在常数l>0,使‖g( x)-g( y)‖≤l‖x-y‖,x,yL.

并且有

因此

由引理1和文献[10]中的定理3.2,可以直接得到定理1.

定理1若假设( A) ( B)成立,MFR*算法中步长k满足强Wolfe条件式( 4)和( 5),参数0<δ<<,则

参考文献:

[1]FLETCHER R,REEVES C M.Function Minimization by Conjugate Gradients[J].The Computer Journal,1964,7( 2) : 149-154

[2]POLAK E,RIBIERE G.Note Sur La Convergence De Methodes De Directions Conjuguees[J].ESAIM: Mathematical Modelling and Numerical Analysis-Modélisation Mathematique et Analyse Numerique,1969,3( R1) : 35-43

[3]POLYAK B T.The Conjugate Gradient Method in Extremal Problems[J].USSR Computational Mathematics and Mathematical Physics,1969,9( 4) : 94-112

[4]HESTENES M R,STIEFEL E.Methods of Conjugate Gradients for Solving Linear Systems[M].NBS,1952

[5]DAI Y H,YUAN Y.A Nonlinear Conjugate Gradient Method with a Strong Global Convergence Property[J].SIAM Journal on Optimization,1999,10( 1) : 177-182

[6]敖卫斌.一种修正的DY共轭梯度法的全局收敛性[J].重庆工商大学学报:自然科学版,2013,30( 10) : 17-20

[7]黎小林.Glodstein条件下的一种修正CD共轭梯度法[J].重庆工商大学学报:自然科学版,2014,31( 3) : 24-26

[8]ZHANG L.An Improved Wei-Yao-Liu Nonlinear Conjugate Gradient Method for Optimization Computation[J].Applied Mathematics and Computation,2009( 6) : 2269-2274

[9]JIANG X,JIAN J.A Sufficient Descent Dai-Yuan Type Nonlinear Conjugate Gradient Method for Unconstrained Optimization Problems[J].Nonlinear Dynamics,2013,72( 1-2) : 101-112

[10]GILBERT J C,NOCEDAL J.Global Convergence Properties of Conjugate Gradient Methods for Optimization[J].SIAM Journal on Optimization,1992,2( 1) : 21-42

A Class of Modified FR Method with Strong Wolfe Line Search

ZHANG Peng

( College of Mathematics Science,Chongqing Normal University,Chongqing 401331,China)

Abstract:This paper proposes a class of modified FR method ( MFR*) by modifying Fletcher-Reeves ( FR),and proves MFR*with strong Wolfe line search satisfies sufficient descent condition and global convergence.

Key words:unconstrained optimization; conjugate gradient method; sufficient descent condition; global convergence

作者简介:张鹏( 1990-),男,河南信阳人,硕士,从事全局最优化理论与算法研究.

收稿日期:2014-08-24;修回日期: 2014-10-08.

doi:10.16055/j.issn.1672-058X.2015.0005.006

中图分类号:O224

文献标识码:A

文章编号:1672-058X( 2015) 05-0020-03