凸优化第九章无约束优化 9.3 梯度下降方法

9.3 梯度下降方法

  1. 梯度下降方法
  2. 例子

梯度下降方法

用负梯度做搜索方向,即令\bigtriangleup x = -\bigtriangledown f(x),这种下降方法称为梯度下降方法:

给定初始点x \in dom(f)

重复进行

  1. \bigtriangleup x = - \bigtriangledown f(x)
  2. 直线搜索:通过精确或回溯直线搜索方法确定步长t
  3. 修改:x:=x+t \bigtriangleup x

直到满足停止条件

停止准则通常取为:\begin{Vmatrix} \bigtriangedown f(x)\end{Vmatrix}_2 \leq \eta,其中\eta是小正数。一般情况下步骤11完成后就检验停止条件而不是在修改后才检验。

例子

R^2空间的二次问题

考虑R^2上的二次目标函数:f(x)=\frac{1}{2}(x_1^2+\gamma x_2^2),\gamma >0,显然最优点是x^*=0。f的海瑟矩阵是常熟,其特征值是1和\gamma,因此起所有下水平集的条件数为\frac{max\left \{ 1,\gamma \right \}}{min\left \{ 1,\gamma \right \}}=max\left \{ \gamma,1/\gamma \right \}

采用精确线性搜索,初始点为x^{(0)}=(\gamma,1),迭代过程中每个点的表达式写成:

x_1^{(k)}=\gamma(\frac{\gamma-1}{\gamma+1})^k,x_2^{(k)}=(-\frac{\gamma-1}{\gamma+1})^k

下图是\gamma =10时,精确线性搜索方法的迭代过程,其中虚线是等值线。

R^2空间的非二次型问题

f(x_1,x_2)=e^{x_1+2x_2-0.1}+e^{x_1-3x_2-0.1}+e^{-x_1-0.1}

上图分别是该问题的回溯搜索方法和精确搜索方法的迭代过程。可以看出精确搜索方法的收敛速度大约是回溯收敛方法的两倍。

R^{100}空间的一个问题

f(x)=c^Tx-\sum_{i=1}^mlog(b_i-a_i^Tx)

上图是分别采用回溯直线搜索和精确直线搜索的梯度优化方法所产生的误差和迭代次数之间的关系

梯度方法和条件数的结论

书上给出了一些结论

  1. 梯度方法通常呈现近似线性收敛性质
  2. 回溯参数\alpha ,\beta的取值对收敛性有明显的影响,但不会产生戏剧性的效果。精确搜索方法有时可以改善梯度方法的收敛性,胆效果不是很大。
  3. 收敛速度强烈以来与海瑟矩阵或下水平集的条件数。及时问题的条件数不是太坏,收敛速度也可能很慢,如果条件数很大,梯度方法已经慢的失去实用价值。

 

来源:https://blog.csdn.net/wangchy29/article/details/87968905

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值