【深度学习】网络训练时train/val loss出现周期性剧增原因

今天在训练自己定义的网络时,用Tensorboard观察Train/Val 的loss在训练时的变化,发现了下面loss会周期性剧增的情况:
train loss
val loss
通过观察loss具体的数值变化,我发现每次loss剧增都发生在一个epoch的最后一轮。

通过分析,我判断出这是由于我的图片数量不能被batch size整除导致的

我的train/val分别有2450,610张图片,batch size为32,这使得每个epoch最后一次迭代的图片很少。

由于每轮训练的loss是所有图片loss的平均。当图片数量很少时,随机性更大,平均下来loss就更高了。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值