老卫带你学---RMSProp与Adam

RMSProp算法

RMSProp算法全称root mean square prop算法。
这里写图片描述
从前面的例子可以知道,当我们利用梯度下降法的时候,虽然横轴也在前进,但纵轴摆动太大。假设纵轴是b横轴是w,假如我们想减弱b的幅度,加快或者不减少w的前进,RMSProp算法就可以起到这个作用。
其执行过程是这样的:
这里写图片描述
那么该算法是怎么起作用的呢?对于b方向,我们想减少b的摆动。所以对于sdwsdw除数就会较大,那么更新的就会小一些,减少了纵轴的摆动。
所以,RMSProp和Momentum算法有相似的一点是都可以消除下降过程中的摆动。

w和b只是为了方便展示才使用的,实际上对于高维度w来说,可能纵轴是w1,w3..而横轴是w2,w4等。
这个算法中的ββ。这只是为了保证数值能稳定一些。

Adam算法

在深度学习的历史上,包括许多志明研究者在内提出了优化算法,并很好的解决了一些问题。但随后这些优化算法被指出并不能一般化,不能适用于多种神经网络。时间久了,深度学习圈子里的人开始多少有些质疑全新的算法。很多人觉得动量下降算法很好用,很难找到更优化的算法了。所以RMSProp和Adam算法是少有的经受人们质疑的2种算法,已被证实可以适用不同的深度学习结构。
Adam算法基本上是将momentum和rmsprop结合在一起。
这里写图片描述
这里写图片描述
Adam,读作/艾德穆,不是额呆穆/(音标不会打)算法是非常常用的算法,其全称是Adaptive Moment Estimation。β1β1用来计算平方数的指数加权平均数,叫做第二矩(second moment),所以Adam的名字由此而来。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值