小知识点系列(十七) 本文(1.5万字) | 解读深度学习中 | Batch Size | Iterations | Epochs |

141 篇文章 7 订阅

已下架不支持订阅


点击进入专栏:
《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程


文章目录

  • 一、引言
  • 二、Batch Size
  • 三、Iterations
  • 四、Epochs
  • 五、举个例子
  • 六、 简要解读


训练网络之前有很多参数要设置,不了解各个参数的含义就没法合理地设置参数值,训练效果也会因此大受影响。本篇博客记录一下网络训练里的Batch Size、Iterations和Epochs怎么理解。

一、引言

首先要了解一下为什么会出现Batch Size这个概念。深度学习算法是迭代的,也就是会多次使用算法获取结果,以得到最优化的结果。每次迭代更新网络参数有两种方式,也是两种极端:

第一种是Batch Gradient Descent,批梯度下降,即把所有数据一次性输入进网络,把数据集里的所有样本都看一遍,然后计算一次损失函数并更新参数。这种方式计算量开销很大,速度也很慢,不支持在线学习。

第二种是Stochastic Gradient Descent,随机梯度下降,即把每次只把一个数据输入进网络,每看一个数据就算一下损失函数并更新参数。这种方式虽然速度比较快,但是收敛性能不好,可能会在最优点附近震荡,两次参数的更新也有可能互相抵消掉。

可见,这两种方式都有问题,所以现在一般都是采用两种方式的折衷,Mini-Batc

  • 19
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

已下架不支持订阅

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小酒馆燃着灯

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值