岭回归和lasso回归_机器学习算法之岭回归、Lasso回归和ElasticNet回归

点击上方“机器学习与统计学”,选择“置顶”公众号

重磅干货,第一时间送达

5b4253d662412e87cd26f0d60500ce96.png

作者:biaodianfu https://www.biaodianfu.com/ridge-lasso-elasticnet.html1adf2df2ad6dddee1af75356725d2d84.png

在处理较为复杂的数据的回归问题时,普通的线性回归算法通常会出现预测精度不够,如果模型中的特征之间有相关关系,就会增加模型的复杂程度。当数据集中的特征之间有较强的线性相关性时,即特征之间出现严重的多重共线性时,用普通最小二乘法估计模型参数,往往参数估计的方差太大,此时,求解出来的模型就很不稳定。在具体取值上与真值有较大的偏差,有时会出现与实际意义不符的正负号。

在线性回归中如果参数31945694-1a35-eb11-8da9-e4434bdf6706.svg过大、特征过多就会很容易造成过拟合,如下如所示:

7689817c17907c03a25b178869f75c6e.png

正则化

岭回归与Lasso回归的出现是为了解决线性回归出现的过拟合以及在通过正规方程方法求解31945694-1a35-eb11-8da9-e4434bdf6706.svg的过程中出现的37945694-1a35-eb11-8da9-e4434bdf6706.svg不可逆这两类问题的,这两种回归均通过在损失函数中引入正则化项来达到目的。

在日常机器学习任务中,如果数据集的特征比样本点还多, 39945694-1a35-eb11-8da9-e4434bdf6706.svg的时候会出错。岭回归最先用来处理特征数多于样本数的情况,现在也用于在估计中加入偏差,从而得到更好的估计。这里通过引入3a945694-1a35-eb11-8da9-e4434bdf6706.svg限制了所有3c945694-1a35-eb11-8da9-e4434bdf6706.svg之和,通过引入该惩罚项,能够减少不重要的参数,这个技术在统计学上也叫作缩减(shrinkage)。和岭回归类似,另一个缩减LASSO 也加入了正则项对回归系数做了限定。

为了防止过拟合(31945694-1a35-eb11-8da9-e4434bdf6706.svg过大),在目标函数41945694-1a35-eb11-8da9-e4434bdf6706.svg\theta43945694-1a35-eb11-8da9-e4434bdf6706.svg后添加复杂度惩罚因子,即正则项来防止过拟合。正则项可以使用L1-norm(Lasso)、L2-norm(Ridge),或结合L1-norm、L2-norm(Elastic Net)。

Lasso:使用L1-norm正则

  

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值