动手学深度学习03:过拟合与欠拟合区别和解决方案

问题:拿到一个图,不怎么怎么区分是过拟合还是欠拟合
图1:
在这里插入图片描述
图2:
在这里插入图片描述
图3:
在这里插入图片描述
1.观察图:
图1:train loss>>test loss 训练误差(10^3)较大
图2:test loss >> train loss 训练误差(10^1)较小
图3: test loss = train loss

2.得出:
图1 模型训练还没得到较好结果,因此欠拟合
图2 模型训练取得较好结果,但是模型测试结果不好,因此过拟合
图3 训练和测试同分布,正常

影响拟合的因素:模型复杂度训练数据集大小

给定数据集,模型复杂度与误差之间的关系:
在这里插入图片描述
训练数据集大小
一般来说,
如果训练数据集中样本数过少,特别是比模型参数数量(按元素计)更少时,过拟合更容易发生。此外,泛化误差不会随训练数据集里样本数量增加而增大。
因此,在计算资源允许的范围之内,我们通常希望训练数据集大一些,特别是在模型复杂度较高时,例如层数较多的深度学习模型。

模型复杂度高,容易出现过拟合,解决办法:权重衰减
权重衰减等价于 L2 范数正则化(regularization)。
为模型损失函数添加惩罚项使学出的模型参数值较小
在这里插入图片描述
红框即为L2范式正则化

  • 1
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
过拟合欠拟合是机器习中常见的两个问题,它们都与模型的泛化能力有关。 过拟合(Overfitting)指的是模型在训练数据上表现得很好,但在新的未见过的数据上表现较差。过拟合通常是由于模型过于复杂,过度拟合了训练数据中的噪声和细节,导致对新数据的泛化能力较差。过拟合的特征包括训练集上表现很好但测试集上表现较差,模型参数较多,模型对训练数据中的噪声过于敏感等。 欠拟合(Underfitting)指的是模型无法很好地拟合训练数据,无法捕捉到数据中的关键特征和模式。欠拟合通常是由于模型过于简单或者训练数据量不足导致的,模型无法充分习到数据的规律。欠拟合的特征包括训练集和测试集上表现都较差,模型无法捕捉到数据中的复杂关系等。 解决过拟合欠拟合问题的方法有很多,以下是一些常见的方法: 1. 增加训练数据量:通过增加更多的训练样本,可以帮助模型更好地习数据的规律,减少过拟合欠拟合的问题。 2. 简化模型:减少模型的复杂度,可以降低过拟合的风险。可以通过减少模型的参数数量、降低模型的层数或者使用正则化等方法来简化模型。 3. 特征选择:选择对问题有用的特征,去除冗余和无关的特征,可以提高模型的泛化能力。 4. 正则化:通过在损失函数中引入正则化项,限制模型参数的大小,可以减少过拟合的问题。 5. 交叉验证:使用交叉验证来评估模型的性能,选择最优的模型参数和超参数,可以帮助避免过拟合欠拟合

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值