数学物理学报, 2022, 42(1): 216-227 doi:

论文

一个带重启步的改进PRP型谱共轭梯度法

江羡珍,, 廖伟,, 简金宝,, 毋晓迪,

广西民族大学数学与物理学院, 应用数学与人工智能研究中心 & 广西混杂计算与集成电路设计分析重点实验室 南宁 530006

An Improved PRP Type Spectral Conjugate Gradient Method with Restart Steps

Jiang Xianzhen,, Liao Wei,, Jian Jinbao,, Wu Xiaodi,

Center for Applied Mathematics and Artificial Intelligence & Guangxi Key Laboratory of Hybrid Compution and IC Design Analysis, College of Mathematics and Physics, Guangxi University for Nationalities, Nanning 530006

通讯作者: 简金宝, E-mail: jianjb@gxu.edu.cn

收稿日期: 2021-01-18  

基金资助: 广西自然科学基金.  2020GXNSFDA238017
广西自然科学基金.  2018GXNSFAA281099
广西民族大学科研基金.  2018KJQD02
广西民族大学研究生创新项目.  gxun-chxp201909

Received: 2021-01-18  

Fund supported: the NSF of Guangxi Province.  2020GXNSFDA238017
the NSF of Guangxi Province.  2018GXNSFAA281099
the Research Project of Guangxi University for Nationalities.  2018KJQD02
the Innovation Project of Guangxi University for Nationalities Graduate Education.  gxun-chxp201909

作者简介 About authors

江羡珍,E-mail:yl2811280@163.com , E-mail:yl2811280@163.com

廖伟,E-mail:1436134351@qq.com , E-mail:1436134351@qq.com

毋晓迪,E-mail:1710703068@qq.com , E-mail:1710703068@qq.com

Abstract

The Polak-Ribière-Polak algorithm is considered one of the most efficient methods among classical conjugate gradient methods (CGMs). To generate new conjugate parameter, an improved PRP formula is proposed by combining the strong Wolfe line search condition. Furthermore, a new spectral parameter and a new restart direction are designed, and thus a new spectral conjugate gradient method with restart steps is established. Using the strong Wolfe line search condition to yield the step length, the sufficient descent property and global convergence of the new algorithm are obtained under the general assumptions. Finally, for the proposed algorithm, a medium-large scale numerical experiments is performed, and compared with some existing efficient CGMs, the numerical results show that the proposed algorithm is very promising.

Keywords: Unconstrained optimization ; Spectral conjugate gradient method ; Restart direction ; Strong Wolfe line search

PDF (494KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

江羡珍, 廖伟, 简金宝, 毋晓迪. 一个带重启步的改进PRP型谱共轭梯度法. 数学物理学报[J], 2022, 42(1): 216-227 doi:

Jiang Xianzhen, Liao Wei, Jian Jinbao, Wu Xiaodi. An Improved PRP Type Spectral Conjugate Gradient Method with Restart Steps. Acta Mathematica Scientia[J], 2022, 42(1): 216-227 doi:

1 引言

考虑无约束优化问题

$ \begin{eqnarray} \min\limits_{x\in{{\mathbb{R}}} ^n}\ \ f(x), \end{eqnarray} $

其中$ f:{{\mathbb{R}}} ^n\rightarrow {{\mathbb{R}}} $是连续可微函数. 由于共轭梯度法每步迭代不需要矩阵存储, 且具有良好的收敛性质, 是求解大规模光滑无约束优化问题(1.1)最有效的数值方法之一. 共轭梯度法迭代点列通常由以下公式产生

其中$ g_{k}=\nabla f(x_{k}) $为当前迭代点的梯度, $ \beta_k\in{{\mathbb{R}}} $为共轭参数, $ \alpha_k $为步长.

共轭参数$ \beta_k $的选取对共轭梯度法的收敛性以及数值表现至关重要. 经典共轭梯度法包括Hestenes-Stiefel(HS)方法[1], Fletcher-Reeves(FR)方法[2], Polak-Ribière-Polak(PRP) 方法[3, 4], Dai-Yuan(DY)方法[5], Fletcher (CD)方法[6]和Liu-Storey(LS)方法[7]. 其中PRP方法是数值表现较好的经典共轭梯度法之一, 其共轭参数计算公式为

PRP方法自带重启功能, 即算法在迭代过程中一旦出现小步长, 下一步迭代即以最速下降方向进行重启, 从而有效避免算法连续产生小步长, 进而提高算法计算效率. PRP方法这个性质的严格表述最早见文献[8], 并称之为性质($ \ast $). 然而, 在常规假设和非精确线搜索条件下, PRP方法并不具备FR方法和DY方法良好的收敛性. Powell[9]的研究表明, PRP方法对于一般的非凸函数, 即使在精确线搜索条件下也无法保证它的全局收敛性. 特别地, 当$ \beta_k^{\rm PRP}<0 $$ \|d_{k-1}\| $很大时, 算法相邻的两个方向会趋于反向. 于是, Powell[10]建议对$ \beta_k^{\rm PRP} $进行非负化, 即$ \beta_k^{\rm PRP+}=\max\{0, \beta_k^{\rm PRP}\} $, 由此产生的方法称为PRP+ 方法. PRP+ 方法的数值表现优于PRP方法. 但是, 对一般的目标函数, 采用非精确线搜索准则求步长仍无法保证由PRP+方法产生的搜索方向满足下降条件, 从而无法保证PRP+方法全局收敛. 为此, Gilbert和Nocedal[8]在算法满足Wolfe线搜索和充分下降条件的假设下, 证明了PRP+ 方法对一般非凸函数的全局收敛性.

鉴于PRP方法以上理论和数值性质, 许多学者围绕PRP方法改进进行深入研究, 近期部分代表性成果见文献[11-18]. 如基于共轭参数公式修正PRP方法[11], 杂交PRP方法[12], 谱PRP方法[13-16], 三项PRP方法[17]和谱三项PRP方法[18].

本文继续研究PRP方法的改进, 目的是建立结构简单、计算效率高、收敛性好的PRP型谱共轭梯度法. 全文余下部分安排如下: 第2部分结合Wolfe线搜索准则对PRP公式进行改进, 并基于新共轭参数设计新的谱参数, 引入重启条件并构造新的重启方向, 建立新算法; 第3部分证明算法的下降性和全局收敛性; 第4部分对算法进行中大规模数值实验并分析报告测试结果.

本节最后给出本文用于产生步长的线搜索准则—强Wolfe线搜索准则, 即

$ \begin{eqnarray} \left\{\begin{array}{ll}f(x_k+\alpha_k d_k)\leq f(x_k)+\delta\alpha_k g_k^Td_k, \\-\sigma |g_k^Td_k|\leq g(x_k+\alpha_k d_k)^T d_k\leq\sigma |g_k^Td_k|, \end{array}\right. \end{eqnarray} $

其中$ 0<\delta<\sigma<1. $

2 改进PRP参数公式和新算法

Dai和Yuan[19]提出一类单参数共轭梯度法簇, 其共轭参数为

显然, 当$ \lambda=1 $, $ 0 $时, 上式分别对应为FR公式和DY公式. 当$ \lambda=\frac{1}{2} $时, 上式变为

$ \begin{eqnarray} \beta_k=\frac{2\|g_k\|^{2}}{\|g_{k-1}\|^{2}+d_{k-1}^T(g_k-g_{k-1})}. \end{eqnarray} $

受(2.1)式分母结构的启发, 结合强Wolfe线搜索准则(1.2), 本文考虑将PRP公式改进为

$ \begin{eqnarray} \beta_k^{\rm JLJW}=\frac{g_k^T(g_k-g_{k-1})}{\|g_{k-1}\|^{2}+d_{k-1}^T(g_k-\sigma g_{k-1})}. \end{eqnarray} $

显然, 当$ g_{k-1}^Td_{k-1}<0 $时, 由(1.2)第二式左边易知$ d_{k-1}^T(g_k-\sigma g_{k-1})>0 $, 于是有$ |\beta_k^{\rm JLJW}|\leq|\beta_k^{\rm PRP}| $, 称与(2.2)式相应的共轭梯度法为JLJW方法. 通过大量数值实验(见第4部分), 发现JLJW方法的数值表现优于PRP方法、HS方法和LS方法. 然而, 在常规假设和非精确线搜索条件下, 对一般函数, JLJW方法跟PRP方法一样难以收敛. 因此, 为了保证JLJW方法全局收敛, 须对JLJW方法作进一步改进.

谱思想较早出现在Barzilai和Borwein[20]提出的两点步长梯度法(简称BB方法)中, 其每步线搜索仅使用负梯度方向, 即

数值结果表明, 对于许多无约束优化问题BB方法明显优于最速下降法. 基于文献[20], Luengo等在文献[21]结合预处理技术提出了预条件谱梯度法, 其数值实验结果表明该方法优于一些复杂的共轭梯度法. Birgin和Martinez[22]将谱梯度法与共轭梯度法相结合提出谱共轭梯度法, 其搜索方向为

$ \begin{eqnarray} d_k=\left\{\begin{array}{ll}-g_k, &k=1, \\-\theta_kg_k+\beta_kd_{k-1}, &k\geq2. \end{array}\right. \end{eqnarray} $

由(2.3)式不难发现, 若$ \theta_k=1 $, 谱共轭梯度法退化为经典共轭梯度法, 若$ \theta_k>1 $, 相比于二项共轭梯度法, 谱共轭梯度法每步迭代均有较大下降量. 受Birgin和Martinez工作的启发, 文献[16] 提出一个修正的谱PRP方法, 其搜索方向为

谱参数$ \theta_{k} $由条件$ g_{k}^Td_k=-\|g_k\|^2 $求得, 即为

另一方面, Kou和Dai[23]提出一个带新型重启方向的改进三项共轭梯度法(简称KD方法), 其重启方向为

$ \begin{eqnarray} d_k=-g_k+\eta\frac{g_k^Td_{k-1}}{\|d_{k-1}\|^2}d_{k-1}. \end{eqnarray} $

由于新型重启方向的引入, 使得KD方法具有良好的理论性质和数值表现. 受文献[16, 23]的启发, 为确保JLJW方法全局收敛和提高其计算效率, 我们对JLJW方法引入新的谱参数和重启方向, 构造搜索方向如下

$ \begin{eqnarray} d_k=\left\{\begin{array}{ll} -g_k, &k=1, \\ -\theta_{k}g_k+\beta_k^{\rm JLJW} d_{k-1}, &k\geq2, \ \mbox{且}\ \ 0\leq g_{k}^Tg_{k-1}\leq r\|g_{k}\|^{2}, \\ { } -\tilde{\theta_{k}}g_{k}+\eta\frac{g_{k}^Td_{k-1}}{\|d_{k-1}\|^{2}}d_{k-1}, &\mbox{其他}. \end{array}\right. \end{eqnarray} $

其中$ 0<r\leq1, $

$ 0\leq g_{k}^Tg_{k-1}\leq r\|g_{k}\|^{2} $$ g_{k-1}^Td_{k-1}<0 $时, 由(1.2)式可得$ 0\leq\beta_k^{\rm JLJW} $. 因此, (2.5)式中$ \theta_{k}\geq 1. $显然, $ \tilde{\theta_{k}}\geq 1. $$ \eta=0 $时, 由(2.5)式知: 重启方向$ d_k=-g_k, $即为标准的最速下降方向.

基于搜索方向(2.5)及强Wolfe线搜索准则(1.2), 下面给出本文的算法步骤(简记为$ \rm JLJW^{+} $算法).

初始步  任取初始点$ x_1\in {{\mathbb{R}}} ^n $, 参数$ 0<\delta<\sigma<1, 0<r\leq1, 0\leq\eta<1 $. 给定终止精度$ \epsilon>0 $. $ d_1=-g_1 $, 置$ k:=1 $.

步骤1  若$ \|g_k\|\leq \epsilon $, 则停止. 否则, 转入步骤2.

步骤2  采用强Wolfe线搜索条件(1.2)计算步长$ \alpha_k $.

步骤3  按$ x_{k+1}=x_k+\alpha_kd_k $产生新的迭代点, 计算$ g_{k+1}:=g(x_{k+1}) $, 并由(2.2)及(2.5)式计算搜索方向$ d_{k+1} $.

步骤4  令$ k:=k+1 $, 返回步骤1.

3 JLJW+ 算法的下降性和收敛性分析

为了获得$ \rm JLJW^{+} $算法的充分下降性和收敛性, 首先给出下面关于目标函数的两个基本假设.

(H1) 目标函数$ f(x) $在水平集$ \Lambda=\{x\in {{\mathbb{R}}} ^n\ | \ f(x)\leq f(x_1)\} $上有下界, 其中$ x_{1} $为算法的初始点;

(H2) 目标函数$ f(x) $在水平集$ \Lambda $的一个邻域$ {\rm U} $内可微, 且其梯度函数$ g(x) $满足$ \rm Lipschitz $条件, 即存在$ L>0 $, 使得$ \|g(x)-g(y)\|\leq L\|x-y\|, \forall\ x, y\in U. $

以下引理表明, 在强Wolf线搜索条件下, $ \rm JLJW^{+} $算法的搜索方向具有充分下降性.

引理3.1  算法$ \rm JLJW^{+} $的搜索方向$ d_k $满足

$ \begin{eqnarray} -\frac{1}{1-2\sigma}\leq\frac{g_{k}^Td_{k}}{\|g_{k}\|^{2}}\leq -1\quad (0<\sigma<\frac{1}{2}) \end{eqnarray} $

$ \forall k\geq1 $成立.

  当$ k=1 $时, $ g_1^Td_1=-\|g_1\|^2 $, 此时(3.1)式成立. 假设对$ k-1 $的情形(3.1)式成立, 下面分两种情形证明其对$ k\geq2 $的情形也成立.

(i) 当搜索方向$ d_k $为重启方向, 即$ d_k=-\tilde{\theta_k}g_{k}+\eta\frac{g_{k}^Td_{k-1}}{\|d_{k-1}\|^{2}}d_{k-1} $时, 有

$ \begin{eqnarray} \frac{g_{k}^Td_{k}}{\|g_k\|^{2}}&=&\frac{-(1+\eta\frac{(g_{k}^Td_{k-1})^2}{\|d_{k-1}\|^{2}\|g_k\|^{2}})\|g_k\|^{2} +\eta\frac{g_k^Td_{k-1}}{\|d_{k-1}\|^{2}}g_k^Td_{k-1}}{\|g_k\|^{2}} \\ &=&-(1+\eta\frac{(g_{k}^Td_{k-1})^2}{\|d_{k-1}\|^{2}\|g_k\|^{2}}) +\eta\frac{(g_{k}^Td_{k-1})^2}{\|d_{k-1}\|^{2}\|g_k\|^{2}} \\ &=&-1. \end{eqnarray} $

(ii) 当$ 0\leq g_{k}^Tg_{k-1}\leq r\|g_{k}\|^{2} $时, 搜索方向$ d_k=-\theta_kg_k+\beta_k^{\rm JLJW} d_{k-1} $. 于是有

$ \begin{eqnarray} g_{k}^Td_{k}&=&-(1+\beta_k^{\rm JLJW}\frac{|g_{k}^Td_{k-1}|}{\|g_k\|^{2}})\|g_k\|^{2}+\beta_k^{\rm JLJW}g_{k}^Td_{k-1}\\ &=&-\|g_k\|^{2}-\beta_k^{\rm JLJW}|g_{k}^Td_{k-1}|+\beta_k^{\rm JLJW}g_{k}^Td_{k-1}. \end{eqnarray} $

$ g_{k}^Td_{k-1}\geq0 $, 则由(3.3)式有

$ \begin{eqnarray} g_{k}^Td_{k}=-\|g_k\|^{2}. \end{eqnarray} $

$ g_{k}^Td_{k-1}<0 $, 则由(3.3)式有

$ \begin{eqnarray} g_{k}^Td_{k}=-\|g_k\|^{2}+2\beta_k^{\rm JLJW}g_{k}^Td_{k-1}. \end{eqnarray} $

由归纳假设, 可知$ g_{k-1}^Td_{k-1}<0 $; 另外, 由(1.2)式可知$ \sigma g_{k-1}^Td_{k-1}\leq g_{k}^Td_{k-1}, $再根据(2.2)式可得

$ \begin{eqnarray} 0\leq\beta_k^{\rm JLJW}=\frac{\|g_{k}\|^{2}-g_k^Tg_{k-1}}{\|g_{k-1}\|^{2}+d_{k-1}^T(g_k-\sigma g_{k-1})}\leq \frac{\|g_k\|^2}{\|g_{k-1}\|^2}. \end{eqnarray} $

结合(3.5)和(3.6)式可得

$ \begin{eqnarray} -\|g_k\|^{2}+2\frac{\|g_k\|^2}{\|g_{k-1}\|^2}\sigma g_{k-1}^Td_{k-1}\leq -\|g_k\|^{2}+2\frac{\|g_k\|^2}{\|g_{k-1}\|^2}g_k^Td_{k-1}\leq g_{k}^Td_{k}\leq -\|g_k\|^{2}. \end{eqnarray} $

根据(3.4)和(3.7)式可知, 搜索方向$ d_k=-\theta_kg_k+\beta_k^{\rm JLJW} d_{k-1} $总满足

将上式两边同时除以$ \|g_k\|^2 $可得

此结合归纳假设$ -\frac{1}{1-2\sigma}\leq\frac{g_{k-1}^Td_{k-1}}{\|g_{k-1}\|^{2}} $, 得

$ \begin{eqnarray} -\frac{1}{1-2\sigma}=-1-2\frac{\sigma}{1-2\sigma}\leq-1+2\sigma\frac{g_{k-1}^Td_{k-1}}{\|g_{k-1}\|^2}\leq\frac{g_{k}^Td_{k}}{\|g_{k}\|^{2}}\leq -1. \end{eqnarray} $

综合(3.2)和(3.8)式可知充分下降性(3.1)式对$ k\geq1 $成立. 证毕.

基于$ \rm JLJW^{+} $方法的充分下降性(3.1)式, 下面给出$ \rm JLJW^{+} $算法的全局收敛性定理及其证明.

定理3.1  若假设$ \rm (H1) $$ \rm (H2) $成立, 则由$ \rm JLJW^{+} $算法产生的点列$ \{x_k\} $满足

  用反证法. 假设$ \liminf \limits_{k\to\infty}\|g_{k}\|\neq0, $则存在一个常数$ \gamma>0 $, 使得

一方面, 由(1.2)式, (3.1)式和假设(H2)可得

进而$ \alpha_k\geq\frac{(1-\sigma)\|g_k\|^2}{ L\|d_k\|^2} $. 又由(1.2)和(3.1)式有

$ \begin{eqnarray} f(x_k)-f(x_{k+1})\geq-\delta\alpha_kg_{k}^Td_k\geq \delta\alpha_k\|g_k\|^2\geq \frac{\delta(1-\sigma)\|g_k\|^4}{ L\|d_k\|^2}. \end{eqnarray} $

另一方面, 由$ \rm JLJW^{+} $算法可知

(i) 当搜索方向$ d_k $为重启方向, 即$ d_k=-\tilde{\theta}_kg_{k}+\eta\frac{g_{k}^Td_{k-1}}{\|d_{k-1}\|^{2}}d_{k-1} $时, 将$ d_k $两边同时平方有

$ \begin{eqnarray} \|d_k\|^{2}&=&\tilde{\theta}_k^2\|g_{k}\|^{2}-2\tilde{\theta_{k}}\eta\frac{(g_{k}^Td_{k-1})^{2}}{\|d_{k-1}\|^{2}}+ \eta^{2}\frac{(g_{k}^Td_{k-1})^{2}}{\|d_{k-1}\|^{4}}\|d_{k-1}\|^{2} \\ &=&(1+\eta\cos^2\vartheta_k)^2\|g_{k}\|^{2}-2(1+\eta\cos^2\vartheta_k)\eta\cos^2\vartheta_k\|g_{k}\|^{2} +\eta^2\cos^2\vartheta_k\|g_{k}\|^{2} \\ &\leq&[(2+2\eta^2\cos^4\vartheta_k)-2(1+\eta\cos^2\vartheta_k)\eta\cos^2\vartheta_k +\eta^2\cos^2\vartheta_k]\|g_{k}\|^{2}\\ &=&[2+(\eta^2-2\eta)\cos^2\vartheta_k]\|g_{k}\|^{2}\\ &\leq&2\|g_{k}\|^{2}, \end{eqnarray} $

其中$ \vartheta_k $$ g_k $$ d_{k-1} $的夹角.

(ii) 当搜索方向$ d_k=-\theta_kg_k+\beta_k^{\rm JLJW}d_{k-1} $时, 由(1.2), (3.1)和(3.6)式可知

$ \begin{eqnarray} 0<\theta_k=1+\beta_k^{\rm JLJW}\frac{|g_k^Td_{k-1}|}{\|g_k\|^2}\leq1+\sigma\frac{|g_{k-1}^{\rm T}d_{k-1}|}{\|g_{k-1}\|^2}\leq\frac{1-\sigma}{1-2\sigma}. \end{eqnarray} $

$ d_k $两边平方有

$ \begin{eqnarray} \|d_k\|^{2}=\theta_k^2\|g_{k}\|^{2}-2\theta_k\beta_k^{\rm JLJW}g_k^Td_{k-1}+(\beta_k^{\rm JLJW})^{2}\|d_{k-1}\|^{2}. \end{eqnarray} $

根据(3.10)式和(3.12)式可知$ \rm JLJW^{+} $算法的搜索方向$ d_k $总是满足

$ \begin{eqnarray} \|d_k\|^{2}\leq\nu\|g_{k}\|^{2}+2\theta_k|\beta_k^{\rm JLJW}g_k^Td_{k-1}|+(\beta_k^{\rm JLJW})^{2}\|d_{k-1}\|^{2}, \end{eqnarray} $

其中$ \nu=\max\{2, (\frac{1-\sigma}{1-2\sigma})^2\} $.

将(3.13)式两边同时除以$ \|g_{k}\|^{4} $, 再结合(1.2), (3.1), (3.6) 和(3.11)式可得

$ \begin{eqnarray} \frac{\|d_k\|^{2}}{\|g_{k}\|^{4}}&\leq &\nu\frac{1}{\|g_{k}\|^{2}}+2\theta_k\beta_k^{\rm JLJW}\frac{|g_k^Td_{k-1}|}{\|g_{k}\|^{4}}+(\beta_k^{\rm JLJW})^{2}\frac{\|d_{k-1}\|^{2}}{\|g_{k}\|^{4}} \\ &\leq&\nu\frac{1}{\|g_{k}\|^{2}}+\frac{2(1-\sigma)}{1-2\sigma}\frac{1}{\|g_{k}\|^{2}}\frac{|g_k^Td_{k-1}|}{\|g_{k-1}\|^{2}} +\frac{\|d_{k-1}\|^{2}}{\|g_{k-1}\|^{4}} \\ &\leq&\nu\frac{1}{\|g_{k}\|^{2}}+\frac{2\sigma(1-\sigma)}{1-2\sigma}\frac{1}{\|g_{k}\|^{2}}\frac{|g_{k-1}^Td_{k-1}|}{\|g_{k-1}\|^{2}} +\frac{\|d_{k-1}\|^{2}}{\|g_{k-1}\|^{4}} \\ &\leq&\nu\frac{1}{\|g_{k}\|^{2}}+\frac{2\sigma(1-\sigma)}{(1-2\sigma)^2}\frac{1}{\|g_{k}\|^{2}} +\frac{\|d_{k-1}\|^{2}}{\|g_{k-1}\|^{4}} \\ &=&\omega\frac{1}{\|g_{k}\|^{2}}+\frac{\|d_{k-1}\|^{2}}{\|g_{k-1}\|^{4}}, \end{eqnarray} $

其中$ \omega=\nu+\frac{2\sigma(1-\sigma)}{(1-2\sigma)^2} $. 又因$ \frac{\|d_1\|^{2}}{\|g_1\|^{4}}=\frac{1}{\|g_{1}\|^{2}} $, 由递推公式(3.14)以及$ \|g_{k}\|\geq \gamma, $可得

$ \begin{eqnarray} \frac{\|d_k\|^2}{\|g_k\|^4}\leq\sum\limits_{i=1}^{k}\limits\frac{\omega}{\|g_i\|^{2}}\leq\frac{k\omega}{\gamma^2}. \end{eqnarray} $

结合(3.9)和(3.15)式得

$ \begin{eqnarray} \frac{\gamma^2}{k\omega}\leq\frac{\|g_k\|^4}{\|d_k\|^2}\leq\frac{L}{\delta(1-\sigma)}\left(f(x_k)-f(x_{k+1})\right). \end{eqnarray} $

另外, 由于$ \{x_k\}\subseteq\Lambda $, 故由假设(H1), (1.2)式以及(3.1)式可知: 数列$ \{f(x_k)\} $单调下降且有下界. 因此, $ \{f(x_k)\} $为收敛数列. 此结合(3.16)式可得

这与调和级数$ \sum_{k=1}^{\infty}\limits\frac{1}{k} $发散矛盾. 证毕.

4 数值试验

本节, 通过三组数值实验测试新方法的有效性. 第一组, 为测试改进的PRP型方法的有效性, 将JLJW方法与HS方法[1], PRP方法[3, 4]和LS方法[6]进行对比; 第二组, 为测试新型重启方向的有效性, 将$ \rm JLJW^{+} $方法与JLJWG方法, JLJWKD方法, JLJW方法进行对比, 其中JLJWG方法表示将$ \rm JLJW^{+} $的重启方向替换为负梯度方向, JLJWKD方法表示将$ \rm JLJW^{+} $的重启方向替换为KD方法中的重启方向, 即(2.4)式; 第三组, 为测试$ \rm JLJW^{+} $方法的有效性, 将$ \rm JLJW^{+} $方法与现有数值表现较好的KD方法[19], DK方法[24], HZ方法[25], SFP2方法[14]进行比对. 三组测试都采用强Wolfe线搜索(1.2)计算步长, 都测试了108个相同的算例, 其中算例1-60取自CUTEr算例库[26], 其余算例取自问题集[27, 28]. 测试环境为Matlab R2016a, Windows10操作系统, 联想台式电脑(Intel(R)Core(TM)i7-7700CPU@3.60GHz)8GB内存. 相关参数选取如下: $ \delta=0.01 $, $ \sigma=0.1 $, $ r=0.8 $, $ \eta=0.05 $. 实验中, 选取的试探步长$ \alpha_{k, 0} $与前一步长$ \alpha_{k-1} $有关, 这样有助于提高Wolfe线搜索的效率. 具体的选取策略为

其中$ \alpha_{k, 0} $表示线搜索计算步长$ \alpha_{k} $的试探步长.

本文算法的终止准则为以下两种情形之一

(1) $ \| g_k\|\leq 10^{-6} $;

(2) 迭代次数$ {\rm Itr}>2000 $.

另外, 终止准则(2) 出现时认为该方法对相应例子失效, 并记为"F".

在试验中, 我们分别对迭代次数(Itr), CPU计算时间(Tcpu)及算法终止时梯度值$ \|g_*\| $ (精度)三个指标进行观察和比较, 同时, 我们还采用Dolan和Morè[29]性能图对算法的CPU计算时间和迭代次数进行直观刻划. 由于三组测试均基于相同的测试问题及维数, 因此, 为了节省篇幅, 第一、第二组实验仅报告其数值结果性能图, 第三组报告其详细数值结果及性能图. 其中图 12对应第一组的测试结果, 图 34对应第二组的测试结果, 表 12图 56对应第三组的测试结果. 从图 12可以看出JLJW方法的数值表现优于其他3个经典方法. 图 34说明本文构造的重启方向比负梯度方向以及Kou和Dai提出的重启方向(2.4) 更适合用来改进JLJW方法; 同时, 也说明本文提出的改进策略极大提高了JLJW方法的计算性能. 从表 12图 56可以看出$ \rm JLJW^{+} $算法能够解决约90$ \% $的算例, 明显优于现有数值效果好的几个共轭梯度法.

图 1

图 1   第一组CPU计算时间比较


图 2

图 2   第一组迭代次数比较


图 3

图 3   第二组CPU计算时间比较


图 4

图 4   第二组迭代次数比较


表 1   数值试验报告

ProblemsJLJW+KDDKHZSPF2
Name/nItr/Tcpu/||g*||Itr/Tcpu/||g*||Itr/Tcpu/||g*||Itr/Tcpu/||g*||Itr/Tcpu/||g*||
bard 31430/4.93/7.6e-071565/5.19/8.0e-07F/F/3.2e-05620/2.00/4.0e-07235/0.64/6.6e-07
beale 2631/0.96/3.6e-07326/0.52/7.7e-0786/0.11/1.6e-07251/0.37/6.2e-07142/0.20/4.3e-07
box 3150/0.26/2.1e-07330/0.57/6.0e-07134/0.26/1.4e-08475/0.89/8.9e-0791/0.13/5.2e-07
cosine 30019/0.03/5.2e-0726/0.09/3.3e-07F/F/1.2e-0432/0.06/4.9e-08F/F/3.0e+02
cosine 15001560/11.26/1.5e-07F/F/1.4e+03F/F/2.8e+03F/F/1.2e+02F/F/1.8e+03
cosine 4500F/F/2.9e+02F/F/5.8e-04F/F/1.2e+04477/11.19/2.9e-07F/F/2.1e+03
dixmaana 300018/0.99/3.4e-0717/0.90/3.1e-0723/1.22/6.0e-0726/1.75/1.3e-0724/1.38/1.9e-07
dixmaana 1200018/3.14/6.8e-0717/2.93/6.2e-0725/4.16/1.1e-0721/3.70/1.6e-0724/4.05/3.7e-07
dixmaanb 300011/0.39/7.4e-0712/0.50/3.3e-0734/1.76/1.7e-0749/3.92/9.6e-0814/0.61/1.5e-07
dixmaanb 1200011/1.17/4.4e-0712/1.51/5.8e-0747/10.10/9.0e-0840/10.30/6.5e-0713/1.55/2.7e-07
dixmaanc 300024/1.48/3.8e-0825/1.54/5.5e-0729/1.62/2.4e-0733/2.20/1.9e-0735/2.18/8.0e-07
dixmaanc 1200016/2.37/1.0e-0625/4.38/4.5e-0727/4.39/8.2e-0773/18.86/5.6e-0767/15.50/9.6e-07
dixmaand 300025/1.28/1.3e-0725/1.32/3.6e-0729/1.56/3.3e-0754/4.45/2.3e-0745/2.73/6.7e-07
dixmaand 1200022/3.41/5.5e-0723/3.67/6.5e-0744/8.42/7.7e-0729/5.73/7.2e-0750/10.73/2.7e-07
dixmaane 60001308/199.45/9.0e-071229/192.04/9.3e-071941/331.01/8.5e-071716/274.31/9.3e-07564/82.65/7.7e-07
dixmaanf 4500775/94.63/8.3e-071258/161.65/7.9e-07396/53.77/8.5e-071165/155.96/9.0e-07470/59.77/7.1e-07
dixmaanf 90001080/237.42/9.3e-071078/246.31/8.8e-071396/340.53/9.4e-07F/F/1.8e-05383/80.92/4.1e-07
dixmaang 7500889/168.72/8.8e-071154/220.67/5.8e-071239/250.95/8.9e-071682/327.37/9.0e-07614/112.05/9.5e-07
dixmaanh 45001417/179.40/9.2e-071324/169.60/9.8e-071006/137.94/7.2e-07953/120.53/9.9e-07704/81.78/9.8e-07
dixmaani 1201930/9.09/8.7e-071595/7.68/6.7e-07F/F/1.2e-03F/F/8.4e-07731/3.29/4.2e-07
dixmaanj 27001193/94.28/8.5e-071382/108.65/6.2e-071320/110.36/9.5e-07F/F/1.0e-051153/85.27/6.4e-07
dixmaank 30001142/98.31/6.5e-071158/100.76/7.8e-07F/F/4.0e-05F/F/2.7e-051799/154.65/6.6e-07
dixmaanl 3001554/14.02/9.8e-071424/12.64/8.9e-07F/F/4.6e-04F/F/8.0e-05826/7.12/7.4e-07
dixon3dq 501199/1.50/8.8e-071613/2.28/6.0e-07F/F/5.9e-051836/2.41/5.3e-07629/0.82/6.0e-07
dixon3dq 881934/2.80/8.3e-071476/2.09/6.7e-07F/F/1.0e-02F/F/4.9e-041227/1.65/5.2e-07
dqdrtic 60000496/35.92/7.8e-07426/31.92/2.8e-07197/13.41/4.1e-07917/67.92/7.1e-07312/21.78/6.2e-07
dqrtic 10022/0.06/5.7e-0723/0.04/6.4e-0734/0.04/7.7e-0728/0.03/1.8e-0760/0.12/1.8e-07
dqrtic 45034/0.13/2.8e-0747/0.19/3.4e-0733/0.15/7.4e-0731/0.13/5.0e-0760/0.36/5.7e-07
edensch 1000046/4.59/9.5e-0754/6.25/6.2e-07F/F/8.7e-06F/F/3.8e-06F/F/3.3e-06
edensch 5000055/24.21/1.9e-0765/29.17/8.8e-07F/F/1.0e-04F/F/1.8e-05F/F/1.2e-04
edensch 100000126/93.46/9.7e-07F/F/4.8e-05F/F/2.3e-05120/139.38/5.3e-07F/F/2.0e-04
eg2 30F/F/2.9e-06F/F/3.0e-01313/0.43/8.0e-07F/F/3.2e-03F/F/1.1e-05
eg2 80F/F/2.5e-04F/F/5.8e-06F/F/4.0e-01F/F/2.8e-02F/F/1.9e-05
engval1 687/0.11/1.9e-0795/0.14/2.4e-08F/F/4.7e-01F/F/8.8e-01F/F/1.8e-01
fletchcr 10000145/3.81/1.3e-07F/F/1.1e-03F/F/3.1e-04F/F/9.5e-04F/F/6.9e-04
fletchcr 300000211/118.78/3.9e-07F/F/9.2e-03F/F/6.2e-03F/F/9.5e-04F/F/2.6e-02
freuroth 201700/2.52/9.8e-07476/0.66/9.2e-07F/F/1.5e-05455/0.60/6.8e-07F/F/6.8e-05
freuroth 36F/F/2.2e-06F/F/6.3e-06F/F/8.2e-06F/F/6.5e-05F/F/7.5e-05
genrose 2000574/2.28/2.8e-07399/1.94/4.1e-07395/1.77/6.1e-071259/5.68/9.6e-07692/2.85/4.4e-07
genrose 47000270/25.44/6.7e-07336/31.54/1.3e-07474/42.83/7.1e-07854/76.03/9.0e-07571/48.69/8.7e-07
gulf 32/0.00/0.0e+002/0.00/0.0e+002/0.00/0.0e+002/0.00/0.0e+002/0.00/0.0e+00
helix 3479/1.02/1.6e-07282/0.62/4.2e-07316/0.60/7.0e-07731/1.56/6.7e-07F/F/3.5e+03
himmelbg 10003/0.01/1.6e-283/0.00/1.3e-283/0.00/1.6e-283/0.00/1.2e-283/0.00/1.6e-28
himmelbg 100003/0.01/5.2e-283/0.01/4.2e-283/0.01/5.0e-283/0.01/3.8e-283/0.01/5.0e-28
himmelbg 1000003/0.10/1.6e-273/0.11/1.3e-273/0.12/1.6e-273/0.11/1.2e-273/0.12/1.6e-27
kowosb 4774/1.40/7.0e-07817/1.55/4.7e-071574/3.07/8.7e-07F/F/5.2e-04239/0.43/7.5e-07
liarwhd 500487/1.06/1.9e-07750/1.63/9.4e-071168/2.52/8.5e-07F/F/2.9e-03268/0.49/1.2e-07
liarwhd 1000534/1.43/2.3e-07F/F/1.3e-04F/F/1.6e-021267/3.35/9.8e-07294/0.75/4.7e-07
liarwhd 10000F/F/5.6e-02F/F/5.8e+00F/F/3.2e+03F/F/1.5e+03409/8.96/8.9e-07
nondquar 4F/F/1.2e-04F/F/5.0e-05F/F/4.9e-03395/0.66/2.2e-0787/0.12/6.5e-07
penalty1 100015/0.82/1.2e-0715/0.82/1.2e-0715/0.86/1.2e-0715/0.87/1.2e-0715/0.89/1.2e-07
penalty1 100009/28.41/9.6e-079/28.32/9.6e-079/28.02/9.6e-079/28.38/9.6e-079/28.46/9.6e-07
quartc 10022/0.04/5.7e-0723/0.04/6.4e-0734/0.05/7.7e-0728/0.05/1.8e-0760/0.13/1.8e-07
quartc 45034/0.14/2.8e-0747/0.20/3.4e-0733/0.14/7.4e-0731/0.12/5.0e-0760/0.31/5.7e-07

新窗口打开| 下载CSV


表 2   数值试验报告(续)

ProblemsJLJW+KDDKHZSPF2
Name/nItr/Tcpu/||g*||Itr/Tcpu/||g*||Itr/Tcpu/||g*||Itr/Tcpu/||g*||Itr/Tcpu/||g*||
tridia 2001491/2.44/3.2e-071380/2.41/9.8e-071699/2.90/9.3e-07F/F/5.9e-06593/0.94/5.5e-07
tridia 4001905/3.90/5.7e-07F/F/1.1e-03F/F/8.8e-03F/F/3.8e-05733/1.29/6.9e-07
sinquad 3406/0.57/4.7e-07272/0.34/8.9e-07F/F/3.1e-04501/0.63/3.0e-07366/0.45/9.2e-07
vardim 812/0.01/4.0e-0812/0.01/4.0e-0812/0.01/4.0e-0812/0.01/4.0e-0812/0.02/4.0e-08
watson 3107/0.26/2.6e-07147/0.36/6.3e-0751/0.12/2.1e-07121/0.32/5.8e-07108/0.31/9.8e-07
woods 10000F/F/1.3e-02792/20.82/9.5e-07883/22.24/6.2e-07922/22.70/8.8e-07309/7.19/9.9e-07
bdexp 10003/0.01/5.9e-1073/0.00/7.1e-1083/0.00/4.4e-1073/0.00/2.5e-1083/0.00/4.5e-107
bdexp 100003/0.01/1.2e-1093/0.01/9.4e-1103/0.01/1.1e-1093/0.01/8.4e-1103/0.01/1.1e-109
bdexp 1000003/0.12/1.7e-1093/0.13/1.7e-1093/0.15/1.7e-1093/0.15/1.7e-1093/0.12/1.7e-109
exdenschnf 100025/0.05/4.6e-0768/0.18/2.4e-0765/0.17/5.2e-0791/0.35/3.8e-0796/0.28/9.7e-07
exdenschnf 1000026/0.56/3.1e-0768/2.43/7.6e-0773/2.21/2.5e-0785/2.85/2.6e-07843/33.85/8.8e-07
exdenschnf 10000027/4.41/1.1e-0769/15.80/6.0e-0773/14.86/7.8e-0759/12.45/2.2e-07114/25.09/2.1e-07
mccormak 221/0.05/9.3e-0819/0.01/8.1e-0763/0.07/9.0e-0839/0.06/1.2e-07F/F/2.9e+04
exdenschnb 100022/0.03/8.2e-0827/0.05/8.0e-0774/0.19/4.5e-0732/0.05/3.5e-07102/0.27/4.8e-07
exdenschnb 1000022/0.23/2.6e-0728/0.40/7.1e-0782/1.38/3.2e-0725/0.29/1.0e-06153/2.80/8.0e-07
exdenschnb 10000022/1.58/8.2e-0730/2.59/2.6e-0788/9.13/2.7e-0729/2.19/4.5e-0791/9.42/1.5e-07
genquartic 500024/0.20/4.7e-0731/0.32/9.0e-08108/1.30/2.6e-0733/0.22/8.6e-07115/1.37/2.6e-07
genquartic 3000035/1.33/1.9e-0738/1.37/2.0e-0796/4.61/5.6e-0736/1.43/7.0e-08157/8.53/2.4e-07
genquartic 10000027/2.41/7.1e-0837/3.79/5.2e-0798/13.02/3.0e-0781/11.20/8.8e-07182/26.69/4.3e-07
biggsb1 1001240/1.82/6.9e-071381/1.97/9.8e-07F/F/2.9e-05F/F/7.2e-06621/0.82/9.4e-07
sine 400064/1.65/7.7e-09180/4.19/1.3e-08F/F/8.0e-0291/2.17/3.0e-07F/F/1.1e+03
sine 2000094/7.82/1.7e-09181/14.39/6.0e-13F/F/9.7e-0381/7.52/9.5e-07F/F/7.6e-04
sine 4000087/13.53/2.3e-08394/67.01/7.9e-07F/F/5.0e-0180/13.64/3.2e-07F/F/2.1e+03
fletcbv3 843/0.04/5.3e-0751/0.05/4.7e-0747/0.05/7.7e-0730/0.03/7.4e-0752/0.05/3.9e-07
nonscomp 2000176/0.65/1.3e-07F/F/3.0e-03100/0.37/4.2e-07F/F/4.6e-03F/F/5.0e-05
nonscomp 10000275/6.17/6.5e-07F/F/6.2e-02F/F/3.8e-02413/9.78/4.7e-07F/F/1.2e-04
power1 551699/2.30/9.5e-07F/F/5.1e-06F/F/1.4e-04F/F/3.6e-04737/0.84/9.5e-07
raydan1 2000857/2.94/6.9e-071118/3.86/6.5e-07F/F/1.4e-041335/4.78/7.8e-07F/F/9.2e-05
raydan1 30001252/8.69/7.5e-07F/F/2.5e-04F/F/2.6e-04F/F/3.8e-04F/F/2.3e-04
raydan2 50015/0.02/2.2e-0718/0.02/1.2e-0824/0.04/2.6e-0821/0.03/8.5e-0814/0.02/6.6e-08
raydan2 500018/0.21/1.6e-0721/0.28/7.2e-0846/0.71/6.6e-0738/0.56/2.7e-0712/0.10/3.6e-07
raydan2 5000018/1.44/8.9e-0719/1.65/5.7e-0721/1.89/9.8e-0722/1.90/9.3e-0748/5.15/5.0e-07
diagonal1 60164/0.23/7.3e-0788/0.09/9.4e-0784/0.08/8.2e-07F/F/2.4e-06179/0.28/8.7e-07
diagonal1 100242/0.34/1.7e-07F/F/2.6e-05F/F/3.3e-06348/0.57/9.7e-07F/F/5.5e-06
diagonal2 20001118/6.78/7.2e-071049/6.59/9.3e-07334/1.97/6.9e-071988/12.48/7.6e-07444/2.32/3.9e-07
diagonal3 150F/F/2.3e-05194/0.40/7.9e-07F/F/8.4e-06F/F/6.0e-06F/F/4.3e-05
bv 200013/5.24/3.3e-0714/5.79/3.1e-0722/9.65/2.3e-079/3.23/4.6e-07123/53.66/5.8e-07
bv 200001/0.14/1.2e-081/0.00/1.2e-081/0.00/1.2e-081/0.00/1.2e-081/0.00/1.2e-08
ie 10015/1.33/2.8e-0713/1.12/6.2e-0720/1.94/5.0e-0714/1.34/7.5e-0738/4.96/6.6e-07
ie 20015/4.47/3.9e-0713/3.56/7.2e-0718/5.35/3.1e-0717/5.68/9.3e-0840/17.36/3.2e-07
singx 200348/2.28/7.4e-071218/7.82/6.3e-07F/F/3.5e-03F/F/7.0e-06339/1.98/9.9e-07
singx 15001105/318.57/6.4e-071940/559.01/9.8e-07F/F/6.3e-03F/F/1.8e-05292/75.74/9.0e-07
band 3111/0.23/1.3e-0767/0.12/6.3e-0738/0.06/4.2e-0777/0.11/6.9e-0746/0.05/8.9e-08
gauss 359/0.16/5.6e-0747/0.10/6.4e-0715/0.02/1.7e-0714/0.03/8.1e-0730/0.08/7.4e-07
jensam 2201/0.35/7.7e-07119/0.19/6.7e-07153/0.24/5.3e-07211/0.39/7.0e-07173/0.29/9.7e-07
lin 1002/0.01/2.0e-142/0.00/2.0e-142/0.00/2.0e-142/0.00/2.0e-142/0.00/2.0e-14
lin 100012/83.01/1.3e-0712/83.63/1.3e-0712/82.60/1.3e-0712/81.73/1.3e-0712/82.49/1.3e-07
osb2 111717/6.76/8.4e-07F/F/2.5e-03F/F/8.2e-04F/F/6.4e-04F/F/4.9e-03
pen1 55626/1.47/6.2e-07448/1.02/9.2e-071475/3.47/9.5e-07839/1.99/4.7e-07106/0.18/1.5e-08
pen2 100F/F/4.1e-05274/2.25/6.2e-07F/F/1.1e-05430/3.57/9.0e-07F/F/1.6e-05
rosex 40F/F/7.3e-041077/2.00/5.3e-071496/2.58/9.4e-07828/1.45/5.5e-07141/0.18/7.1e-07
sing 4545/0.97/4.7e-07380/0.60/6.7e-07F/F/5.0e-04F/F/5.5e-06254/0.50/3.4e-08
trid 500F/F/7.2e-05899/55.29/1.0e-06F/F/1.5e-02410/24.09/8.6e-07F/F/1.4e-04
trid 1000500/76.37/7.1e-07211/29.37/3.9e-07F/F/4.5e-04754/111.54/8.3e-07391/55.48/9.2e-07

新窗口打开| 下载CSV


图 5

图 5   第三组CPU计算时间比较


图 6

图 6   第三组迭代次数比较


参考文献

Hestenes M R , Stiefel E .

Method of conjugate gradient for solving linear equations

Journal of Research of National Bureau of Standards, 1952, 49: 409- 436

DOI:10.6028/jres.049.044      [本文引用: 2]

Fletcher R , Reeves C .

Function minimization by conjugate gradients

Computer Journal, 1964, 7 (2): 149- 154

DOI:10.1093/comjnl/7.2.149      [本文引用: 1]

Polak E , Ribiére G .

Note surla convergence de directions conjugées

Revue Francaise Informat Recherche Operationelle 3e Anneé, 1969, 16 (3): 35- 43

[本文引用: 2]

Polyak B T .

The conjugate gradient method in extreme problems

USSR Computational Mathematics and Mathematical Physics, 1969, 9: 94- 112

DOI:10.1016/0041-5553(69)90035-4      [本文引用: 2]

Dai Y H , Yuan Y X .

A nonlinear conjugate gradient method with a strong global convergence property

SIAM Journal on Optimization, 1999, 10 (1): 177- 182

DOI:10.1137/S1052623497318992      [本文引用: 1]

Fletcher R. Unconstrained Optimization. Practical Methods of Optimization: Vol 1. New York: Wiley, 1987

[本文引用: 2]

Liu Y , Storey C .

Efficient generalized conjugate gradient algorithms, part 1:theory

Journal of Optimization Theory and Applications, 1991, 69 (1): 129- 137

DOI:10.1007/BF00940464      [本文引用: 1]

Gilbert J C , Nocedal J .

Global convergence properties of conjugate gradient methods for optimization

SIAM Journal on Optimization, 1992, 2 (1): 21- 42

DOI:10.1137/0802003      [本文引用: 2]

Powell M J D. Nonconvex Minimization Calculations and the Conjugate Gradient Method//Griffiths D F, et al. Numerical Analysis. Berlin: Springer, 1984: 122-141

[本文引用: 1]

Powell M J D .

Convergence properties of algorithms for nonlinear optimization

SIAM Review, 1986, 28 (4): 487- 500

DOI:10.1137/1028154      [本文引用: 1]

Jiang X Z , Jian J B , Song D , et al.

An improved Polak-Ribiére-Polyak conjugate gradient method with an efficient restart direction

Computational and Applied Mathematics, 2021, 40 (5): 1- 24

URL     [本文引用: 2]

Mtagulwa P , Kaelo P .

An efficient modified PRP-FR hybrid conjugate gradient method for solving unconstrained optimization problems

Applied Numerical Mathematics, 2019, 145: 111- 120

DOI:10.1016/j.apnum.2019.06.003      [本文引用: 1]

Aminifard Z , Babaie-Kafaki S .

A modified descent Polak-Ribiŕe-Polyak conjugate gradient method with global convergence property for nonconvex functions

Calcolo, 2019, 56 (2): 1- 11

[本文引用: 1]

Liu J K , Feng Y M , Zou L M .

A spectral conjugate gradient method for solving large-scale unconstrained optimization

Computers Mathematics with Applications, 2019, 77 (3): 731- 739

DOI:10.1016/j.camwa.2018.10.002      [本文引用: 1]

Dong X L .

A modified nonlinear Polak-Ribiére-Polyak conjugate gradient method with sufficient descent property

Calcolo, 2020, 57 (3): 1- 14

Dai Z F , Tian B S .

Global convergence of some modified PRP nonlinear conjugate gradient methods

Optimization Letters, 2011, 5 (4): 615- 630

DOI:10.1007/s11590-010-0224-8      [本文引用: 3]

Li M .

A three term Polak-Ribiére-Polyak conjugate gradient method close to the memoryless bfgs quasi-newton method

Journal of Industrial Management Optimization, 2020, 16 (1): 245- 260

DOI:10.3934/jimo.2018149      [本文引用: 1]

Li X L , Shi J J , Dong X L , et al.

A new conjugate gradient method based on Quasi-Newton equation for unconstrained optimization

Journal of Computational and Applied Mathematics, 2019, 350: 372- 379

DOI:10.1016/j.cam.2018.10.035      [本文引用: 2]

Dai Y H , Yuan Y X .

A class of globally convergent conjugate gradient methods

Science in China Series A: Mathematics, 2003, 46 (2): 251- 261

DOI:10.1360/03ys9027      [本文引用: 2]

Barzilai J , Borwein J M .

Two-point step size gradient methods

IMA Journal of Numerical Analysis, 1988, 8 (1): 141- 148

DOI:10.1093/imanum/8.1.141      [本文引用: 2]

Luengo F, Raydan M, Glunt W, et al. Preconditioned spectral gradient method for unconstrained optimization problems[R]. Technical Report 96-08, Escuela de Computación, Facultad de Ciencias, Universidad Central de Venezuela, 47002 Caracas 1041-A, Venezuela, 1996

[本文引用: 1]

Birgin E G , Martínez J M .

A spectral conjugate gradient method for unconstrained optimization

Applied Mathematics and Optimization, 2001, 43 (2): 117- 128

DOI:10.1007/s00245-001-0003-0      [本文引用: 1]

Kou C X , Dai Y H .

A modified self-scaling memoryless Broyden-Fletcher-Goldfard-Shanno method for unconstrained optimization

Journal of Optimization Theory and Applications, 2015, 165 (1): 209- 224

DOI:10.1007/s10957-014-0528-4      [本文引用: 2]

Dai Y H , Kou C X .

A nonlinear conjugate gradient algorithm with an optimal property and an improved Wolfe line search

SIAM Journal on Optimization, 2013, 23 (1): 296- 320

DOI:10.1137/100813026      [本文引用: 1]

Hager W W , Zhang H .

A new conjugate gradient method with guaranteed descent and an efficient line search

SIAM Journal on Optimization, 2005, 16 (1): 170- 192

DOI:10.1137/030601880      [本文引用: 1]

Gould N I M , Orban D , Toint P L .

CUTEr and SifDec: A constrained and unconstrained testing environment, revisited

ACM Transactions on Mathematical Software (TOMS), 2003, 29 (4): 373- 394

DOI:10.1145/962437.962439      [本文引用: 1]

Moré J J , Garbow B S , Hillstrom K E .

Testing unconstrained optimization software

ACM Transactions on Mathematical Software, 1981, 7 (1): 17- 41

DOI:10.1145/355934.355936      [本文引用: 1]

Andrei N .

An unconstrained optimization test functions collection

Advanced Modeling and Optimization, 2008, 10 (1): 147- 161

[本文引用: 1]

Dolan E D , Moré J J .

Benchmarking optimization software with performance profiles

Mathematical Programming, 2002, 91 (2): 201- 213

DOI:10.1007/s101070100263      [本文引用: 1]

/