岭回归和Lasso 回归

线性回归存在问题:

    在处理复杂的回归问题时,普通的线性回归问题会出现预测精度不够的问题,如果模型中特征之间有较强的相关关系时,即特征之间出现严重的多重共线性时,用普通最小二乘法估计模型参数,往往参数估计的方差太大,求出来的模型就很不稳定。再具体取值上与真值有较大偏差。这时就需要对数据中的特征进行提取,回归算法里面的特征选择的方法有岭回归和 Lasso 回归。这两种方法都属于正则化的特征选择方法,在处理复杂的数据回归问题中常用。

一、岭回归Rdige Regression模型

岭回归在平均误差的基础上增加正则项:

l=\sum_{i=1}^{m}(y^{(i)}-\sum_{j=0}^{n}w_{j}x_{j}^{(i)})^{2}+\lambda \sum_{j=0}^{n}w_{j}^{2}

其中,\lambda > 0,通过确定\lambda的值可以使得在方差和偏差之间达到平衡:随着\lambda的增大,模型方差减少而偏差增大。

岭回归模型的求解:

利用最小二乘法求解岭回归模型的参数,对W求导并令其为零。

2X^{T}\left ( Y-XW \right )-2\lambda W\Rightarrow \hat{W}=\left ( X^{T} X+\lambda I\right )^{-1}X^{T}Y

二、Lasso 回归模型

Lasso 采用的则是 L1正则,即 Lasso是在平方误差的基础上增加 L1 正则:

l=\sum_{i=1}^{m}(y^{(i)}-\sum_{j=0}^{n}w_{j}x_{j}^{(i)})^{2}+\lambda \sum_{j=0}^{n}\left | w_{j} \right |

与基于 L2 回归的岭回归不同的是,上述的损失函数在 w_{j}=0 处不可导,因此传统的基于梯度的方法不能直接用来求解损失函数。问了解决这个问题,采用近似的优化算法,或者采用一些简单的方法来近似这样的优化算法。

三、拟牛顿法

BFGS 算法是使用较多的一种拟牛顿方法,是由 Broyde、Fletcher、Goidfarb和Shanno 四人提出,所以称为 BFGS。(莫名想到TFBOYS,哈哈哈哈哈)

对于拟牛顿方程:

\bigtriangledown f\left ( x_{k} \right )=\bigtriangledown f\left ( x_{k+1} \right )+G_{k+1}(x_{k}-x_{k+1})

B_{k+1}\doteq G_{k+1},则可得:

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值