Lasso回归、岭回归理解

有两种情况不可逆:

(1) 当X中有线性相关的向量,也就是特征之间可能有重叠,或者互相影响的时候

(2) 当X 列数大于行数,对应于特征数大于样本数,此时不可逆 。两种情况X转置*X的行列式为0

克服:

(1)将高自相关的变量进行删除;

(2)岭回归也能够避免X’X的不可逆。

岭回归一般可以用来解决线性回归模型系数无解的两种情况

1970年Heer提出了岭回归方法,非常巧妙的化解了这个死胡同,即在X’X的基础上加上一个较小的lambda扰动 ,从而使得行列式不再为0。

回归系数的求解表达式 

对于岭回归来说,随着lambda的增大,模型方差会减小(因为矩阵X’X行列式在增大,其逆就是减小,从而使得岭回归系数在减小)而偏差会增大

其实,LASSO回归于岭回归只是在惩罚函数部分有所不同,但这个不同却让LASSO明显占了很多优势,例如在变量选择上就比岭回归强悍的多。就以直观的图形为例,LASSO回归的惩罚函数映射到二维空间的话,就会形成“角”,一旦“角”与抛物面相交,就会导致beta1为0(如上图所示),这样beta1对应的变量就是一个可抛弃的变量。但是在岭回归过程中,没有“角”的圆形与抛物面相交,出现岭回归系数为0的概率还是非常小的

 

参考:

http://f.dataguru.cn/thread-598486-1-1.html

 

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我来简单介绍一下这几种模型。 1. 线性回归模型:线性回归是一种最简单也是最常用的回归算法,它假设自变量和因变量间存在线性关系,通过最小化残差平方和来拟合直线,从而实现对目标变量的预测。特点是模型简单,易于理解和实现,但对于非线性问题效果不佳。应用场景包括市场预测、房价预测等。 2. 多项式回归模型:多项式回归是在线性回归的基础上增加了多项式特征,将自变量的高次项也考虑进去,使得模型可以适应更加复杂的数据分布。特点是可以通过添加高次项来拟合非线性数据,但过高的次数会导致过拟合。应用场景包括生物学数据分析、天气预测等。 3. 岭回归模型:岭回归是一种正则化线性回归方法,它通过对参数施加L2正则化,限制参数的大小从而避免过拟合。特点是可以抑制多重共线性,避免过拟合,但需要调整超参数。应用场景包括基因表达分析、图像处理等。 4. Lasso回归模型:Lasso回归也是一种正则化线性回归方法,不同的是它使用L1正则化,使得一些参数变为0,可以实现特征选择,即通过选择少量重要的特征来提高模型的泛化能力。特点是可以实现特征选择,可以避免过拟合,但也需要调整超参数。应用场景包括信用评分、股票预测等。 以上是对这四种模型的简要介绍,希望能够帮助你更好地理解它们。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值