梯度法和牛顿法的区别?

转载自:https://zhuanlan.zhihu.com/p/78185057

梯度法和牛顿法都是优化中常用的算法,一般来说机器学习和深度学习中用到的优化方法中梯度法是较多的,以及它的改进的算法,如adagrad, adadelta, rmsprop, adam等。回到本问题上来。

梯度下降法的公式如下:

[公式]

牛顿法的公式如下:

[公式]

可以看到梯度法要求的是一阶导数,牛顿法要求二阶导数且求海塞矩阵的逆,因此来说比较耗时。

总的来说,梯度法和牛顿法有如下区别:

  1. 梯度下降法是一阶优化算法,牛顿法是二阶优化算法
  2. 牛顿法的收敛速度相比梯度下降法常常较快,但是计算开销大,实际中常用拟牛顿法
  3. 牛顿法对初始值有一定要求,在非凸优化问题中(如神经网络训练),牛顿法很容易陷入鞍点(牛顿法步长会越来越小),而梯度下降法则很容易逃离鞍点(因此在神经网络训练中一般使用梯度下降法,高维空间的神经网络中存在大量鞍点)
  4. 梯度下降法在靠近最优点时会震荡,因此步长调整在梯度下降法中是必要的,具体有adagrad, adadelta, rmsprop, adam等一系列自适应学习率的方法

参考文献:

Eureka:梯度下降法、牛顿法和拟牛顿法
https://blog.csdn.net/qq_39852676/article/details/86529995
常见的几种最优化方法(梯度下降法、牛顿法、拟牛顿法、共轭梯度法等) - 蓝鲸王子 - 博客园
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值