深度学习经典优化算法-公式汇总

—————整理自DeepLearning chapter8,主要是方便做算法的对比。

1.基础算法

1.1 随机梯度下降(SGD,Stochastic Gradient Descent)

随机梯度下降可以通过从数据生成分布中独立地抽取的m个样本组成的minibatch的平均梯度来无偏地估计梯度。
还有很多其他的点,比如SGD的收敛条件等,详情请参考原书。
在这里插入图片描述

1.2 动量SGD(SGD with momentum)

动量方法的提出至少在1964年,与原SGD相比,主要区别在于添加了速度v。
在这里插入图片描述

1.3 Nesterov动量SGD(SGD with Nesterov momentum)

Nesterov Momentum是2013年提出来的。
在这里插入图片描述

2.自适应学习率算法(Algorithms with Adaptive Learning Rates)

2.1.AdaGrad

2011年提出的,控制梯度方便有所创新。
在这里插入图片描述

2.2.RMSProp

RMSProp算法(Hinton,2012)通过将梯度累积更改为指数加权移动平均值,改进AdaGrad以使它在0非凸设置中表现更好。
在这里插入图片描述还有添加动量因素的RMSP算法:
在这里插入图片描述

2.3.Adam

2014年提出,“Adam”源自“adaptive moments”。
在这里插入图片描述

3.二阶优化算法

3.1 牛顿法(Newton’s Method)

牛顿法是最常用的二阶优化算法。
在这里插入图片描述

3.2 共轭梯度法(Conjugate Gradients)

在这里插入图片描述

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值