RMSprop、动量梯度下降法与Adam优化 [Andrew Ng 深度学习笔记]

如图:

对于蓝色的情况,由于梯度下降时来回摆动,导致收敛很慢

若增大学习率,结果可能偏离函数的范围,如紫色的情况。为了避免摆动过大,就必须使用较小的学习率,进一步降低了收敛速度

我们希望的是在纵轴上减缓学习,在横轴上加快学习,如红色的情况。有多种方法可以实现

动量梯度下降法(Momentum

此处用了指数加权平均的更新方法

因为纵轴有许多摆动,在求平均的时候都可以被抵消,最后几乎等于0,所以纵轴的学习被减缓了

在横轴,所有微分都指向一个方向,所以求平均之后几乎没有变化

所以动量梯度下降法就可以解决上述问题

RMSprop

on iteration t :
      compute  dw, db on current Mini-patch  (和动量梯度下降法一样,每次先算出dw、db)

      

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值