数学之美:脊回归 (ridge regression)

多重共线性

在介绍脊回归之前时,先了解一下多重共线性。

在线性回归模型当中,我们假设每个样本中每个变量之间是相互独立的(参考之前的一篇博客:线性回归与梯度下降(linear regression and gradient descent))。

就是说下面的公式中,

x1,x2,.....,xn中的某几个变量之间存在相关性,或者用矩阵的形式表示的话,矩阵中的某一列可以用其他的列,或其他的某几个列来表示,那么就认为存在共线性。

 

脊回归

在线性回归问题求解过程中,如果存在共线性,那么求解的参数结果其方差和标准差变大,进而导致用此参数进行预测时,预测结果产生很大的偏离。

那么如何克服这个问题呢?

一般,解决多重共线性可以采用如下的一些方法:

1、排除引起共线性的变量(逐步回归法)

2、差分法

3、减小参数估计量的方差(例如增加样本容量);

4、变量变换(例如可以把相关的两个变量合并到一起);

5、利用先验信息做约束(例如增加惩罚项)。

 

在线性回归问题中,如果在回归模型后面增加L2范数的惩罚项,则为脊回归,如果增加L1范数的惩罚项,则为套索回归。

本文只写脊回归,其模型为(最小二乘法):

这里增加的是对求解参数的惩罚项约束,很显然,当a取很大的值时,惩罚项的作用就很明显了,因为,惩罚项必须足够小,那么就达到目的了。

 

对于其求解,可以对公式变形,得到:

对其进行最小化优化,对theta求导,得到:

由于

是标量,转置之后仍然是相同的。

那么结果为:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值