神经网络训练不稳定问题(loss和accuracy波动大)的一种原因及解决方案

本文探讨了使用LSTM进行时间序列预测时,批处理大小对模型训练过程(Loss和Accuracy)的影响。通过对比batchsize为2和4的情况,作者发现较小批量导致初期训练表现不稳定,而增大到4后损失和准确率波动减小,稳定性提升。关键发现集中在调整批量大小对模型收敛速度和精度的优化作用。
摘要由CSDN通过智能技术生成

用LSTM做时间序列预测时发现训练刚开始时loss(MSE)下降很快,accuracy(调整R方)上升也很快,但到后面loss总体上下降变慢,并且时有波动,accuracy甚至会经常出现负值,然后又回弹至正值。经查阅资料和反复调试,发现是batch size太小的问题,原来的batch size是2,现在改成4

batch size为2时loss的变化如下
在这里插入图片描述
batch size 为4时loss的变化如下,虽然也有波动,比如在910epoch左右loss冲到了0.06,但总体上比batch size稳定
在这里插入图片描述
再来看accuracy
batch size为2时accuracy变化如下,蓝色训练集,红色测试集
在这里插入图片描述
batch size为4时accuracy变化如下,确实更稳定了
在这里插入图片描述
参考资料:https://www.zhihu.com/question/30263116/answer/130163865

评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值