指数加权平均、动量梯度下降法、RMSprop、Adam优化算法

目录

1.指数加权平均(exponentially weighted averages)

这里有一年的温度数据。

如果想计算温度的趋势,也就是局部平均值(local average),或者说移动平均值(moving average),怎么做?

:当天的温度,:从当天开始计算前天的平均温度,:从昨天开始计算前天的平均温度。

比如,β=0.9,计算的就是前10天的平均温度,如下图红线所示。β=0.98,计算的就是前50天的平均温度,如下图绿线所示。

为什么是天?

...

...

这些项的系数呈指数级减少

0.37,

当β->1,选定为分界线,从开始,以后的项都可忽略不计,(1-β)=

例:β=0.9,10为分界线,(1-0.9)0.90....+0....

β=0.98,50为分界线,(1-0.98)0.0....+0....

偏差修正(Bias correction)

β=0.98,如果没有进行偏差修正,得到的其实是下图的紫线。

0.02=0.98x0.02+0.02

=5,,算局部平均值的时候,不太合理,偏小

所以,在估测初期要进行一个修正,公式:

:t=2,要修正为,β=0.98

当t越来越大的时候,就近似等于,上图的紫线就和绿线重合了,修正偏差的作用也就不大了。

所以,如果你关心初始时期的偏差,偏差修正能让你在早期获得更好的估测。不在乎早期的偏差,不做修正也问题不大。

指数加权平均优点是只会占很少的内存,计算的时候只需要一行代码,需要知道的信息很少。计算精度肯定不如直接计算前n天的均值,但是后者要保存前n天的数据,更占内存。

2.动量梯度下降法(Gradient descent with momentum)

动量梯度下降法(红线)要快于标准的梯度下降法(蓝线)。

每次迭代,在现有的mini-batch上计算dW,db,更新参数。等式右边的其实是上一状态的值。

两个超参数(hyperparameter):α(学习率)、β(控制着指数加权平均),β常见值等于0.9

3.RMSprop

RMSprop算法同样能加速梯度下降

每次迭代,在现有的mini-batch上计算dW,db,更新参数。

w:=,b:=

RMS:Root Mean Square,均方根

4.Adam优化算法(optimization algorithm)

该算法实际上是将momentumRMSprop这两种算法结合起来,也是为了加速梯度下降,应用广泛

每次迭代,在现有的mini-batch上计算dW,db,更新参数。

偏差修正:

w:=,b:=

超参数:学习率α:需要调整、常用值为0.9、常用值为0.999、ε常用值为

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

漂流の少年

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值