loss变化情况分析

当trainloss和valloss同步下降,表示网络在学习;若trainloss下降但valloss上升,可能过拟合,需数据增强和正则化;trainloss和valloss不变可能是学习瓶颈,调整学习率或批量大小;valloss在trainloss不变时下降,数据集问题;两者均上升,网络或超参数问题。BatchSize影响训练稳定性。
摘要由CSDN通过智能技术生成

train loss 下降⬇,val loss下降⬇,说明网络仍在学习;~~ 奈斯,继续训练

train loss 下降⬇,val loss上升⬆,说明网络开始过拟合了;~~ 赶紧停止,然后数据增强、正则

train loss 不变,val loss不变,说明学习遇到瓶颈;~~ 调小学习率或批量数目

train loss 不变,val loss下降⬇,说明数据集100%有问题;~~ 检查数据集标注有没有问题

train loss 上升⬆,val loss上升⬆,说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。一般不会遇到。

轻微震荡一般是正常的,在一定范围内,一般来说 Batch Size 越大,其确定的下降方向越准,引起训练震荡越小,如果震荡十分剧烈,那估计是Batch Size设置的太小了吧。。。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值