深度学习剖根问底: Adam优化算法理解

版权声明:本文为博主原创文章,转载请注明出处,谢谢。 https://blog.csdn.net/wfei101/article/details/79950510

Momentum是为了对冲mini-batch带来的抖动。

RMSprop是为了对hyper-parameter进行归一,均方根反向传播(RMSProp)

这两个加起来就是Adam

看原始的RMSProp算法: 
这里写图片描述

再看算法:其实就是Momentum+RMSProp的结合,然后再修正其偏差。 
这里写图片描述

阅读更多

没有更多推荐了,返回首页