epoch, batch, iteration

一个epoch 指的是把所有训练数据丢进神经网络一次。

由于训练数据常常太大了,不能够一口吃掉一个胖子,得慢慢来,所以我们常常把训练数据分成好几等份,分完之后每份数据的数量就是 batch size,而几等份的这个几就是iteration。

总结一下,

epoch指的是次数,epoch = 10 指的是把整个数据集丢进神经网络训练10次。

batch size 指的是数据的个数,batch size = 10 指的是每次扔进神经网络训练的数据是10个。

iteration同样指的是次数,iteration = 10 指的是把整个数据集分成10次扔进神经网络。

Q: 如果你有100个训练数据,epoch = 10, batch size = 5, iteration = ?

A : iteration = 总共100 个数据/每次5个数据 = 20 次

也就是说,你要把100个数据集扔进神经网络训练10次,每次(每个epoch)你要把100个数据集分成20份,每份数据为5个(batch size=5),所以你需要投入20次(iteration)来完成一个epoch。

参考:  https://zhuanlan.zhihu.com/p/66021413      

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值