吴恩达深度学习笔记 课程二 第二周 优化算法

一 mini batch 梯度下降

向量法可以加快运行速度,但是当训练样本百万级单位时仍然很慢,可以利用mini batch梯度下降法,每个mini batch有1000样本,如果你的m(训练集)是5百万,可分成5000个mini batch 。
在这里插入图片描述
二者从图像上看损失函数差别如下
在这里插入图片描述
mini batch size =m 称为batch梯度下降法 缺点是每次迭代时间过长。
mini batch size =m1 称为随机梯度下降法 缺点是失去向量化带来的加速,效率过低。
实践中最好选择不大不小的尺寸,实际上学习率最快
在这里插入图片描述

二 momentum 动量梯度下降法

指数加权平均
在这里插入图片描述
纵向的幅度变化小,横向的梯度变化大。
在这里插入图片描述

三 RMSprop

在这里插入图片描述

四 adam优化算法

将Momentum 与 RMSprop 结合起来。
在这里插入图片描述
在这里插入图片描述

五 学习率衰减

在这里插入图片描述

六 局部最优

在这里插入图片描述
导数为0的点叫做鞍点。

  • 28
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值