深度神经网络——优化算法

好的优化算法能够让神经网络运行的更快。本篇博客根据吴恩达老师的讲解,对几种优化算法进行总结。

1. Mini-batch梯度下降法

将训练集分割为小一点子集,使用梯度下降法进行训练。该过程叫做Mini-batch梯度下降
设每个子集中有m个样本(因为考虑到电脑的内存设置和使用方式,一般的mini-batch的大小m设置为62-512,通常为2的n次方。这样代码会运行地快一些。)
当m=整个训练集的大小,称为batch梯度下降
 缺点:训练样本的数量巨大时,单次迭代的耗时太长;
当m=1时,称为随机梯度下降法
 缺点:1.噪声大(可以通过减小学习率来改善或减小);
    2.因为一次只处理一个样本,失去了所有向量多带来的加速效果,效率低下。

2. 动量梯度法

基本思想:
计算梯度指数加权平均数,并利用该梯度更新权重;
更新公式:
在这里插入图片描述

3. RMSprop(Root Mean Square根均方)

基本思想:
减缓纵坐标上的学习速度,同时加快横坐标方向上的学习速度。
更新公式:
在这里插入图片描述

4. Adam

计算公式:

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值