神经网络损失值不下降,训练集准确率明显高于验证集准确率问题的解决办法

查到的资料:
先留着,以后出问题还可以再回过来看

https://blog.csdn.net/u013249853/article/details/89393982

自己的解决办法:
1、emmm,数据集太杂了,一个标签里有很多有其他特征的图片,删掉就好了;😂
2、数据集没有充分打乱。

训练集准确率能够达到100%,但验证集准确率无法提高时,通常表示模型出现了过拟合的情况。 过拟合是指模型在训练集上表现良好,但在未见过的数据上表现较差。这可能是因为模型过于复杂,过度拟合了训练数据集中的噪声和细节,导致无法泛化到新的数据上。 以下是一些常见导致训练集准确率高而验证集准确率低的原因: 1. 模型容量过大:模型的容量指的是其拟合数据的能力。如果模型过于复杂,模型会过度拟合训练数据,无法泛化到验证集或测试集上。可以尝试减小模型的容量,例如减少隐藏层的数量或神经元的数量。 2. 数据不平衡:如果训练集验证集或测试集的数据分布不同,模型在训练集上可能学习到了特定于训练集的规律,而无法适应验证集或测试集中不同的数据分布。可以尝试平衡数据集,或者使用一些数据增强技术来扩充训练数据。 3. 缺乏正则化:正则化技术可以帮助减少模型的过拟合风险,例如 L1 或 L2 正则化、dropout 等。这些方法可以通过约束模型的参数或随机丢弃一部分神经元的输出来减少过拟合。 4. 训练集大小不足:如果训练集的样本数量较少,模型可能会过分记住训练集中的样本,而无法泛化到新数据。可以尝试增加训练集的大小,或者使用数据增强技术。 5. 学习率过高或过低:选择合适的学习率非常重要。如果学习率过高,模型可能无法收敛;如果学习率过低,模型可能收敛得太慢或陷入局部最小。可以尝试使用学习率调度策略或自适应学习率算法来优化学习率。 针对上述问题,可以通过调整模型架构、增加数据量、引入正则化技术、优化超参数等方法来解决过拟合问题,从而提高验证集准确率
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值