batch_size要适中,太小或太大都不好
1、如果batch_size太小,每轮迭代次数太多,而epoch又不能减少,因此训练速度变慢;同时,显存或内存利用率不高。
2、如果batch_size太大,每轮迭代次数太少,在epoch不变的情况下,总的迭代次数不足,训练效果不好,想要达到好的训练效果,需要增加epoch,因此训练速度也会变慢;同时,显存或内存可能溢出。
3、epoch关系到所有样本参与训练的次数,不能随意减少,总的迭代次数关系到权重参数优化的次数,也不能随意减少。
tensorflow学习笔记——batch_size
最新推荐文章于 2023-04-23 15:10:40 发布
关键词由CSDN通过智能技术生成