牛顿法与拟牛顿法,SDM方法的一些注记

SDM方法

考虑一般额NLS问题:

f(x)=minx||h(x)y||2

这里x为优化参数,h为非线性函数,y是已知变量,如下是基于梯度的迭代公式:
Δx=αAJTh(h(x)y)

这里 α 是步长,A是缩放因子, Jh 是h在当前参数x下的Jacobian值。

各种优化方法不同,取决于A的选择,具体为:

  • A=H1 表示:牛顿法
  • A=(JTJ)1 表示:高斯牛顿法
  • A=I 表示:梯度下降法

但对于不可导的函数,J和H都是很难求的。
SDM的主要观点是用一个学习矩阵R去替代 αAJTh ,称R为通用的下降方向(Generic Descent Map(DM))。

SDM是一种迭代算法,用来学习一系列的DM.如下动画展示了SDM方法是如何从当前最优路径(虚线标注)中学习DM的。
http://xiong828.github.io/pics/sdm-animation-all.gif

牛顿法与拟牛顿法

本章可以参考文献《牛顿法与拟牛顿法学习笔记

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值