李宏毅深度学习第二讲

梯度下降算法优化

new optimizers for Deep Learning(深度学习的新优化器)
梯度下降算法最重要的的是梯度和学习率两个变量,优化梯度下降算法可以从这两个方面优化

  1. SGDM(SGD with Momentum)带动量的随机梯度下降

在更新梯度时保留原来的梯度,由原来的梯度和动量矢量合成新的梯度,原来的梯度称为动量

  • 累计梯度:v ← α v + ( 1 − α ) g
  • 梯度更新:w ← w − η ∗ v
    其中α为动量参数,v 是动量,η 是学习率
    在这里插入图片描述

我们也可以从学习率角度出发,试想随着梯度的下降学习率也可以自动下降才对,由此产生AdaGrad(自适应学习率优化算法)和RMSProp(均方根传播)算法
AdaGrad算法关键是对不同的参数会设置不同的学习率
主要思想: 根据每个参数在训练过程中的历史梯度信息来调整学习率,从而使得每个参数的学习率可以自适应地调整,更好地适应不同参数的特性。
特点: 对每个参数的学习率进行适应性调整,使得在训练过程中梯度较大的参数的学习率变小,而梯度较小的参数的学习率变大。
在这里插入图片描述RMSProp算法: RMSProp算法是在AdaGrad算法的基础上,进一步在学习率的方向上进行优化: AdaGrad算法中,由于历史梯度的累积可能会导致学习率不断减小,从而影响算法的收敛速度。RMSProp通过引入一个衰减系数λ来解决这个问题,从而使得学习率的衰减更加平缓,提高了算法的稳定性和收敛速度。
计算方式:
在这里插入图片描述

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

jwlee01

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值