机器学习笔记:过拟合和欠拟合

1 过拟合介绍

如果模型设计的太复杂,可能会过拟合

下图的1~5分别代表最高项为1~5次幂的线性回归问题:

 当模型太复杂的时候,虽然训练集上我们得到较小的误差,但是在测试集上,误差就奇大无比

         复杂模型的model space涵盖了简单模型的model space,因此复杂模型在training data上的错误率更小,但并不意味着在testing data 上错误率更小。模型太复杂会出现overfitting。

1.1 高维小样本问题

1.2 造成过拟合的原因 

  • 模型过于复杂,参数量过多
  • 数据中的噪声,造成了如果完全拟合的话,与真实情景的偏差更大
  • 数据量有限,这使得模型无法真正了解整个数据的真实分布

2 处理过拟合的方法

机器学习笔记:误差的来源(bias & variance)_UQI-LIUWJ的博客-CSDN博客

处理过拟合主要有几种方法:

  • 增加数据量(数据量大了之后,根据某种规则去掉一些特征,来实现降维)
  • 特征提取(eg,主成分分析PCA,作用也是实现降维)
  • 正则化(通过给损失函数增加惩罚项来避免过拟合)
  • 减低模型的复杂度

2.1 正则化

这是一种解决过拟合的办法——>使曲线平滑一点(这样如果测试集的输入有一点噪声的话,扰动也不会太大)

 注:正则项里面不包括偏差表示,只包括影响梯度的那些函数

 

  •  λ越大,表示越平滑,训练集上的error越大(因为我们越倾向于考虑w的数值大小,而不是我们预测值和实际值之间的error)
  • 【λ太小可能过拟合,λ太大可能欠拟合】

2.1.1 L1正则化(Lasso)

 L1正则化每次更新的数值是恒定的(等值更新)

 2.1.2 L2正则化(ridge)

机器学习笔记:岭回归(L2正则化)_UQI-LIUWJ的博客-CSDN博客

L2正则化每次w更新的比例是恒定的(等比例更新)

L2正则化在w值很大的情况下,下降速度很快;在w很小的情况下,下降速度很慢

2.2 Dropout

以概率p丢弃部分神经元,即使得被丢弃的神经元输出为0

2.2.1  Dropout的正则化效果

  • 在Dropout每一轮训练过程中随机丢失神经元的操作相当于多个DNNs进行取平均,因此用于预测时具有vote的效果。

  • 减少神经元之间复杂的共适应性。

    • 当隐藏层神经元被随机删除之后,使得全连接网络具有了一定的稀疏化,从而有效地减轻了不同特征的协同效应。

      • 有些特征可能会依赖于固定关系的隐含节点的共同作用,而通过Dropout的话,就有效地阻止了某些特征在其他特征存在下才有效果的情况,增加了神经网络的鲁棒性。

2.3 交叉验证

将数据分成 k 个子集,用其中一个子集进行验证,其他子集用于训练算法

计算成本较高,但不会浪费太多数据

3 欠拟合和过拟合

 欠拟合:

1)模型不足以表达数据所有的特点

2)没有充分学习观测数据的特点

过拟合:

1)模型不仅表达了数据所有的特点,还把数据特定的噪声也表达了出来

2)在训练集和验证集/测试集 上的表现差异巨大

 (模型容量可以理解成模型的复杂度【参数个数/参数值的选择范围】)

3.1 处理欠拟合的方法

继续训练模型,如果效果提升不显著的话,修改模型,让模型更复杂一些

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值