【记录】batch_size对cnn训练的影响

在其他参数基本一致的情况下,单独调整batchsize,来查看一下对训练的影响.

记录下不同batch_size情况下在Epoch下loss的变化率

训练模型

下面是一个训练模型的summary,我将在此模型下修改batch size然后观察数据变化
在这里插入图片描述

batch_size

不同的batch_size会导致不同的收敛速度每一个epoch的训练时长

下图是batch_size=64的训练截图
batch_size为64

数据结果

针对不同的batch size,做epoch10次训练下的数据统计,数据如下:
在这里插入图片描述

  1. batch越小,每一个epoch的事件越长,但这个关系似乎不是线性变化
  2. batch越小,初始的epoch的loss也越低,说明需要的epoch次数可能比大的batch size要少;但是这种loss的变化似乎也不是线性的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值