分别介绍:
batchsize,批尺寸:每次训练多少个样本(平衡内存和效率),影响模型的优化程度和速度。
iteration,迭代:迭代是重复反馈的动作,神经网络中我们希望通过迭代进行多次的训练以达到所需的目标或结果。
每一次迭代得到的结果都会被作为下一次迭代的初始值。一个迭代=一个正向通过+一个反向通过。
epoch,时期:一个时期=所有训练样本的一个正向传递和一个反向传递。
总结:
(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;
(2)Iteration:1个iteration等于使用batchsize个样本训练一次;
(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;
之间的关系:
例如有M×N个样本,设定训练的batchsize为N,则一次epoch需要iteration迭代M次,P次epoch需要迭代M×P次。
之后再补充