回归中的缩减法

作用

通过引入惩罚项,能够减少不重要的参数。通过比较经过不同程度缩减得到的系数,我们可以看出特征的重要程度(系数越大,对结果影响越大),从而更好地理解数据,有助于模型的改进。

方法

  • 岭回归:线性回归时,如果特征比样本点还多(n>m),此时输入矩阵X将不是满秩矩阵,则无法求逆,最小二乘法(Ordinary Least Squares)将无法求解:
    在这里插入图片描述
    此时引入一个单位矩阵 λI ,从而使矩阵非奇异可以求逆:
    在这里插入图片描述
    OLS增加如下约束便取得与岭回归同样的效果:
    在这里插入图片描述
  • lasso:对回归系数做了限定:
    在这里插入图片描述
    在 λ 足够小时,一些系数会被缩减到零,便于更好地理解数据
  • 向前逐步回归:与lasso效果相似,一种贪心算法,每一步都尽可能的减少误差。可以将系数与迭代次数的关系可视化,主要优点是,可以找出重要特征,及时停止对那些不重要特征的收集,便于理解现有模型并及时作出改进。

特点

可以将一些系数缩减成很小的值或直接缩减为零,会减小模型的复杂度,这是一个增加模型偏差的方法,所以应用缩减法时,模型的偏差会增加,方差会减小

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值