吴恩达深度学习课程第二课2.7-2.10学习笔记

本文探讨了RMSprop和Adam优化算法的结合,强调它们如何在深度学习中调整学习率,特别是在模型接近收敛时采用衰减策略以避免陷入局部最优。同时,解释了鞍点这一概念,它是导致优化过程停滞的导数为0的点。
摘要由CSDN通过智能技术生成

RMSprop

在这里插入图片描述
db较大dw较小

Adam优化算法

在这里插入图片描述
算法内容
结合动量和RMSprop

学习率衰减

在这里插入图片描述

当开始收敛时,小的学习率能让步伐小一点
在这里插入图片描述
衰减公式 decay-rate是衰减率,epoch是代数

局部最优

在这里插入图片描述
鞍点:导数为0的点

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值