算法笔记(三)过拟合 欠拟合

前言

  • 过拟合:过多拟合训练数据,对于测试数据的拟合效果差.也就是模型在训练集上的表现很好,但在测试集和新数据上表现的较差的情况,过分地考虑了训练数据中的噪声等不必要的数据间的关联导致。
  • 欠拟合:没有很好学到数据特征,导致拟合曲线无法拟合数据.模型在训练和预测时表现都不好的情况,成因大多是模型不够复杂,拟合函数的能力不够.

欠拟合

  1. 增加特征的多样性.
  2. 增加模型复杂度.
  3. 数据增强,增加训练集.
  4. 减少正则化参数.

过拟合

  1. 降低模型复杂度.降低模型复杂度可以避免模型过拟合的采样噪声.
  2. 数据清洗,噪声过大.
  3. 样本太单一,样本不均衡.增加训练数据,可以数据增强.
  4. 加入正则化,降低泛化误差.给模型的参数加上一定的正则约束,比如将权值的大小加入到损失函数中.
  5. 加入dropout,提前停止训练.
  6. 可使用BN缓解,但BN核心在于优化参数搜索空间,调整数据分布.
  7. 集成学习方法.集成学习是把多个模型集成在一起,来降低单一模型的过拟合风险,如Bagging方法.
  8. 多模型投票方法, 类似集成学习方法的思想,不同模型可能会从不同角度去拟合,互相之间取长补短,即使单独使用某个模型已出现过拟合,但综合起来却有可能减低过拟合程度,起到正则作用,提高了泛化效果.特别是使用多个非常简单的模型,更不容易产生过拟合.

正则化

给模型的参数加上一定的正则约束,比如将权值的大小加入到损失函数中.
使参数范数降低接近于0,从而降低模型复杂度,即使模型高次方前面的参数变小。
在这里插入图片描述

  • L1正则化:在原先loss基础上加上L1正则化项,即权重之和.
    l o s s = l o s s o + λ ∑ ∣ W i ∣ loss=loss_o+\lambda \sum |W_i| loss=losso+λWi
    可稀疏化参数,使得权重趋于0,减少网络复杂度,防止过拟合.
  • L2正则化:在原先loss基础上加上L1正则化项,即权重平方之和.
    l o s s = l o s s o + λ 2 ∑ W i 2 loss=loss_o+ \frac{\lambda}{2}\sum W_i^2 loss=losso+2λWi2
    可降低参数的范数总和.

参考

https://blog.csdn.net/sleepinghm/article/details/105069716
正则化好文

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

nooobme

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值