当时看代码接触到这三个量,简直懵逼。自己理了理思路总结如下。
epoch:一个epoch表示所有训练样本运算学习一遍。
iteration/step:表示每运行一个iteration/step,更新一次参数权重,即进行一次学习,每一次更新参数需要batch size个样本进行运算学习,根据运算结果调整更新一次参数。
batch size:一次参数更新运算所需的样本数量,深度学习每一次参数更新并不是一个样本学习运算得来的,而是通过对一组数据进行运算后更新一次参数,具体原因在这。
因此假设有20000个样本,batch size 为200,则iteration=20000/200=100.