model.fit_generator(image_a_b_gen(batch_size), steps_per_epoch=1, epochs=1000)
拥有越高性能的GPU,则可以设置越大的batch_size值。根据现有硬件,我们设置了每批次输入50-100张图像。参数steps_per_epoch是通过把训练图像的数量除以批次大小得出的。例如,有100张图像且批次大小为50,则steps_per_epoch值为2。参数epoch决定网络中所有图像的训练次数。在Tesla K80 GPU上,大约需要11小时才能完成对1万张图像的21次训练。
在深度学习中,经常要设置以下几个数据:nEpoch , iteration , batchSIze:
batchSize 代表在做随机梯度下降时,使用批梯度的数量,即每次使用batchSize个数据来更新参数。
1个iteration等于使用batchSize个样本训练一次
1个nEpoch等于使用所有样本训练一次
举个例子,训练集有1000个样本,batchsize=10,那么:
训练完整个样本集需要:
100次iteration 为1次epoch。
简单说 epochs=1 就是完整训练整个样本1次,epochs=2 就是完整训练整个样本2次
原文:https://blog.csdn.net/qq_18293213/article/details/62911888