Lasso回归和岭回归

岭回归与LASSO回归模型是线性回归模型的延申,在多元线性回归模型中我们知道,回归模型的参数估计公式推导的结果是:β = ( X ′ X ) − 1 X ′ y \beta=(X'X)^{-1}X'yβ=(X ′X) −1X ′y,可知,得到β \betaβ的前提是矩阵X ′ X X'XX ′X可逆,但我们又有一个关于可使用线性回归模型的假设前提:多个自变量之间不存在多重共线性。但是在实际应用中,此种情况不可避免(一个实际应用的例子:家庭收入与支出,由于支出占收入的一部分,描绘成数值可想而知,存在共线性)。
如果自变量的个数多于样本量(可以认为是样本量不足,通常我们要求样本量远大于自变量个数)或者自变量之间存在多重共线性,此时将无法根据公式计算回归系数的估计值β \betaβ。为了解决这类问题,统计学家提出了基于线性回归模型进行扩展的岭回归与LASSO回归模型。

Lasso(Least absolute shrinkage and selection operator)方法是以缩小变量集(降阶)为思想的压缩估计方法。它通过构造一个惩罚函数,可以将变量的系数进行压缩并使某些回归系数变为0,进而达到变量选择的目的。
岭回归,又叫吉洪诺夫正则化,是由Hoerl和Kennard于1970年提出的是一种专用于共线性数据分析的有偏估计回归法。岭回归实际上是一种改良的最小二乘估计法,具有L2正则化的线性最小二乘法。回归算法的,本质就是为了解决一个线性方程,而标准估计方法是普通的最小二乘法的线性回归。 当使用最小二乘法计算线性回归模型参数的时候,如果数据集合矩阵存在多重共线性(数学上称为病态矩阵),那么最小二乘法对输入变量中的噪声非常的敏感,如果输入变量x有一个微小的变动,其反应在输出结果上也会变得非常大,其解会极为不稳定。为了解决这个问题,就有了优化算法 岭回归(Ridge Regression )。
 


 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值