python和机器学习 第八章 多项式回归与模型泛化(五)偏差方差平衡;模型正则化之岭回归、LASSO

本文探讨了模型误差的组成,包括偏差、方差和不可避免的误差,并提出了降低模型复杂度、减少维度、增加样本数量和使用验证集等解决高方差的方法。重点讲解了模型正则化的概念,通过限制参数大小来减少方差。介绍了岭回归,其通过调整alpha值控制模型复杂度,但计算量较大且不具备特征选择功能。接着讨论了LASSO,它能促使部分参数变为0,适用于特征选择。最后提到了弹性网络,它是岭回归和LASSO的结合,可通过调整比例r实现不同正则化效果。
摘要由CSDN通过智能技术生成

模型误差 = 偏差(Bias) + 方差(Variance) + 不可避免地误差

方差 偏差
数据的一点点扰动都会较大地影响模型
导致原因:使用的模型过于复杂 导致原因:对问题本身的假设不正确
如:使用高阶多项式回归 如:非线性数据使用线性回归
过拟合 欠拟合
非参数学习通常都是高方差算法。如:KNN 参数学习通常都是高偏差算法。如:线性回归

解决高方差的通常手段

  1. 降低模型复杂度
  2. 减少数据维度;降噪
  3. 增加样本数量
  4. 使用验证集
  5. 模型正则化

模型正则化

限制参数(系数)的大小
经过正则化后,得到的模型的方差会大大减小

  1. 岭回归
    在这里插入图片描述

1、为了防止过拟合,加入theta
2、alpha取不同的值,可以控制theta在函数J中所占的比例
3、alpha越大,曲线越平滑
4、 岭回归不具有特征选择的能力,计算量会比较大

In [138]: from sklearn.linear_model import Ridge
     ...: 
     ...: def RidgeRegression(degree,alpha):
     ...:     return Pipeline([
     .
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值