引用本文:
【打印本页】   【下载PDF全文】   查看/发表评论  【EndNote】   【RefMan】   【BibTex】
←前一篇|后一篇→ 过刊浏览    高级检索
本文已被:浏览 1576次   下载 1673 本文二维码信息
码上扫一扫!
分享到: 微信 更多
无约束优化问题的一个下降方法
董丽,周金川
作者单位
董丽 信阳师范学院数学与信息科学学院, 河南 信阳 464000 
周金川 山东理工大学理学院数学系, 山东 淄博 255049 
摘要:
本文研究了无约束优化问题.利用当前和前面迭代点的信息以及曲线搜索技巧产生新的迭代点,得到了一个新的求解无约束优化问题的下降方法.在较弱条件下证明了算法具有全局收敛性.当目标函数为一致凸函数时,证明了算法具有线性收敛速率.初步的数值试验表明算法是有效的.
关键词:  无约束优化  记忆梯度法  曲线搜索  收敛性
DOI:
分类号:O221.2
基金项目:国家自然科学基金项目(11101248);山东省自然科学基金(ZR2010AQ026).
A DESCENT METHOD FOR UNCONSTRAINED OPTIMIZATION PROBLEMS
DONG Li,ZHOU Jin-chuan
Abstract:
This paper studies the unconstrained optimization problem. By using the current and previous iterative information and the curve search rule to generate a new iterative point, a new descent algorithm is proposed for solving the unconstrained optimization problem. We prove its global convergence under some mild conditions. The linear convergence rate is also proved when the objective function is uniformly convex. Numerical results show that the new method is efficient in practical computation.
Key words:  unconstrained optimization  memory gradient method  curve search  convergence