最速下降法(梯度下降法)

  最速下降法的影子在机器学习中正是无处不在,它简单实用。

一、表示

  在最速下降法中,对权值向量w的连续调整是在最速下降的方向上,即它是与梯度向量方向相反的,梯度向量记为(1),简记(2):

  其中,η是一个正常数,称为步长或学习率参数。g(n)是在w(n)处的梯度向量值。在从迭代n到n+1的过程中算法应用修正。

二、证明

  用w(n)附近的一阶泰勒级数展开来逼近,可写成(4)式

    由(1)式得到(5)式,将(5)式代入(4)式,得到(6)式。显然是梯度下降的。

三、优缺点

  缺点:局部极小值,而不是全局优化。只有目标函数是凸函数才是全局优化。

参考文献:《神经网络与机器学习》P59

 

转载于:https://www.cnblogs.com/Wanggcong/p/4701703.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值