Adam 优化算法

在深度学习的发展过程中出现过很多优化算法,但是有些优化算法并不能被非常广泛地使用,因此出现了一些质疑优化算法的声音。但是当有人尝试将动量梯度下降和 RMSprop 结合起来后,人们发现这种新的优化算法效果非常好而且在很多问题上的表现都不错,后来便广泛地使用了起来。

Adam 算法本质上是将动量梯度下降算法和 RMSprop 结合了起来。

如果读过前几篇文章,那么对下面的算法描述一定不陌生:

第 t 次迭代:
        ①. 在当前的 mini-batch 上计算 dW, db
        ②. v d W = β 1 ⋅ v d W + ( 1 − β ) ⋅ d W v_{dW} = β_1 · v_{dW} + (1 - β) · dW vdW=β1vdW+(1β)dW v d b = β 1 ⋅ v d b + ( 1 − β ) ⋅ d b v_{db} = β_1 · v_{db} + (1 - β) · db vdb=β1vdb+(1β)db
        ③. s d W = β 2 ⋅ s d W + ( 1 − β ) ⋅ d W 2 s_{dW} = β_2 · s_{dW} + (1 - β) · dW^2 sdW=β2sdW+(1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值