batchsize:批大小,比如SGD中的BP一次就是用的一批的数据
iterator:迭代次数,1个iterator相当于用一个batch训练一次
epoch:训练集中全部的数据被用过一次,叫一个epoch
举个例子,在不考虑每个batch之间发生样本交叉的情况下,假设有1000个样本,batchsize是10,那么用过全部的样本训练模型,需要1个epoch,100次iterator
iterator:迭代次数,1个iterator相当于用一个batch训练一次
epoch:训练集中全部的数据被用过一次,叫一个epoch
举个例子,在不考虑每个batch之间发生样本交叉的情况下,假设有1000个样本,batchsize是10,那么用过全部的样本训练模型,需要1个epoch,100次iterator