神经网络模型底层原理与实现2—如何做好训练(二)

1.解决的训练问题:

01c08c505a4345938413c38e598cfc28.png

有时损失可能已经不下降了(右上角的图)但实际上并没有到达最优点,原因是如左图所示在两侧山坡上来回(由于这个点梯度较大导致)因此我们需要动态调整步幅(梯度越大学习率越小)

bedfc19f96a34e2eb6de4fd15e719707.png

改进1如图所示,原本学习率固定为n,现在随着训练进行,要除所有梯度的平方平均 

改进2:希望以前的梯度权重能小一些,得到rmsprop算法

这两个改进导致的值数量变化的大小主要是由所在位置的梯度大小决定的

802ef06b481740b2af925d0fb51ba60a.png

 改进3:这条改进主要针对时间(迭代次数)

针对学习率,随着迭代次数增加,有两种思路:学习率递减或者学习率先增大很减小,如下图

3b3ac51ec6e0420bb276ca8e3a001527.png由此可以得到最终得到的式子如图:

f30e052bb7d04532b25b06e90287cf55.png

注意:之前提到的动量是决定了迭代方向的改变,而本次提到的分母这项是只考虑大小,因此虽然都是由过去的梯度得到,但效果不会抵消

 

 

 

 

 

 

  • 9
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值