机器学习之 L1正则化(Lasso回归)(六)

主要参考:https://www.cnblogs.com/pinard/p/6018889.html

这个主要接上一篇的。都用矩阵法表示。

1. 回顾线性回归

线性回归的一般形式:
在这里插入图片描述
 需要极小化的损失函数是:
 在这里插入图片描述
  如果用梯度下降法求解,则每一轮θ迭代的表达式是:
  在这里插入图片描述
   如果用最小二乘法,则θ的结果是:
   在这里插入图片描述

2.回顾Ridge回归

直接套用线性回归可能产生过拟合.
我们需要加入正则化项,如果加入的是L2正则化项,就是Ridge回归,有时也翻译为脊回归。它和一般线性回归的区别是在损失函数上增加了一个L2正则化的项,和一个调节线性回归项和正则化项权重的系数α。
损失函数表达式如下:
在这里插入图片描述
如果采用梯度下降法,则每一轮θ迭代的表达式是:
在这里插入图片描述
 如果用最小二乘法,则θ的结果是:
 在这里插入图片描述
L2回归(Ridge回归)的特点就是在不抛弃任何一个变量的情况下,缩小了回归系数,使得模型相对而言比较的稳定,但这会使得模型的变量特别多,模型解释性差。

L1回归(Lasso回归)可以使得一些特征的系数变小,甚至还是一些绝对值较小的系数直接变为0。增强模型的泛化能力。

所以相比于L2回归(Ridge回归),L1回归(Lasso回归)即又可以防止过拟合,同时克服Ridge回归模型变量多的缺点。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值