神经网络超参数Epoch,Batchsize,Iterations及设置多少合适 人工智能学习笔记五

Epoch

在模型训练的过程中,运行模型对全部数据完成一次前向传播和反向传播的完整过程叫做一个epoch
在梯度下降的模型训练的过程中,神经网络逐渐从不拟合状态到优化拟合状态,达到最优状态之后会进入过拟合状态。因此epoch并非越大越好,一般是指在50到200之间。数据越多样,相应epoch就越大。

Batchsize

当我们处理较大的数据集时,一次向网络喂入全部数据得不到很好的训练效果。通常我们将整个样本的数量分成多个批次batch,每个batch中样本的个数叫做样本大小batchsize
batchsize是重要的神经网络超参数之一,一般设置在50-400左右较为适宜

Iterations

Iterations= 样本总数量/批次大小,即为完成一次epoch需要训练的batch个数
相较于前两个参数,iteration显得并不是那么重要,在数据集较小的模型训练中,iterations为1也是未尝不可的事情。

如有疑议,欢迎在评论区探讨关于神经网络超参数重要性及设置的相关问题

  • 9
    点赞
  • 100
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值