在深度学习中,经常要设置以下几个数据:nEpoch , iteration , batchSIze:
batchSize 代表在做随机梯度下降时,使用批梯度的数量,即每次使用batchSize个数据来更新参数。
1个iteration等于使用batchSize个样本训练一次
1个nEpoch等于使用所有样本训练一次
举个例子,训练集有1000个样本,batchsize=10,那么:
训练完整个样本集需要:
100次iteration,1次epoch。
在深度学习中,经常要设置以下几个数据:nEpoch , iteration , batchSIze:
batchSize 代表在做随机梯度下降时,使用批梯度的数量,即每次使用batchSize个数据来更新参数。
1个iteration等于使用batchSize个样本训练一次
1个nEpoch等于使用所有样本训练一次
举个例子,训练集有1000个样本,batchsize=10,那么:
训练完整个样本集需要:
100次iteration,1次epoch。