深度学习中的epoch,batch和iteration

名词 定义
epoch 使用训练集的全部数据进行一次完整的训练,称为“一代训练”
batch 使用训练集中的一小部分样本对模型权重进行一次反向传播的参数更新,这一部分样本被称为“一批数据”
iteration 使用一个batch的数据对模型进行一次参数更新的过程,称为“一次训练”

epoch:所有的训练样本都在神经网络中进行了一次正向传播和一次反向传播。
然而,当一个epoch的样本数量可能过于庞大,就需要把它分成多个小块,也就是分成多个batch来进行训练。

batch(批,一批样本):将训练样本分成若干个batch

batch_size(批大小):每批样本的大小

iteration(一次迭代):训练一个Batch就是一次Iteration

换算关系:
在这里插入图片描述
实际上,梯度下降的几种方式的根本区别就在于上面公式中的 Batch_Size 不同,

梯度下降方式 训练集大小 batch_size numbers of batchs
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值