文章目录
一、epoch、batch、batchsize、iteration
最重要的是batchsize的理解,所以放在前面
1、 BATCH_SIZE
- BATCH_SIZE:即一次训练所抓取的数据样本数量(多张图像)
- BATCH_SIZE的大小影响CPU或GPU是否满载运行、训练速度和模型优化,合适的batch_size可以使得梯度下降的方向更加准确。
若BATCH_SIZE=m(训练集样本数量) | 相当于直接抓取整个数据集,训练时间长,但梯度准确。但不适用于大样本训练,只适用于小样本训练,但小样本训练一般会导致过拟合现象,因此不建议如此设置。 |
---|---|
若BATCH_SIZE=1 | 梯度变化波动大,网络不容易收敛。batch_size=1时为在线学习,也是标准的SGD,数据量不大且noise数据存在时,模型容易被noise带偏。 |
若BATCH_SIZE设置合适 | 效率、速度、准确性。gpu满载效率提高;批次减小速度加快;梯度下降方向准确 |
此时再增加BATCH_SIZE大小