Adam优化算法(吴恩达深度学习视频笔记)

Adam实际上就是将momentum和RMSprop结合在一起,并且取得了很好的效果,推荐使用。
下图来自这位朋友的笔记
使用Adam优化算法,首先你要初始化一些参数,v_dw=0,S_dw=0,v_db=0,S_db=0,在第t次迭代中,你要用mini-batch计算dw、db,接下来计算momentum指数加权平均数:
关于ε的选择其实没那么重要,但你不需要设置它,因为它并不会影响算法表现,一般都是直接调整α的值,看看哪个效果更好,其他参数就用默认值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值