神经网络训练中的epoch和batch概念

总是忘了又忘,再写一遍加强记忆。
在神经网络训练中,"epoch"和"batch"是两个基本的概念:
Epoch: 一个epoch代表的是整个数据集被遍历一次的过程。在一个epoch中,网络会对每一个训练样本学习一次,然后更新权重。训练多个epoch是为了使得模型更好地学习数据集中的特征和模式
Batch: Batch是指一次训练过程中,网络同时处理的数据样本的数量。例如,如果你有1000个训练样本,而你的batch size是100,那么需要10个batch来完成一个epoch的训练。Batch size是一个重要的超参数,因为它直接影响到模型权重更新的次数和每次更新时使用的样本数。较小的batch size通常能提供更准确的梯度估计,但可能导致训练过程更加波动。较大的batch size通常能提高内存的利用率和训练速度,但可能会导致内存不足或者优化效果变差
通常,在训练神经网络时,会设置一个epoch参数和一个batch size参数,并在每个epoch内遍历多个batch。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值