机器学习基石——线性回归加入正则项

接上一篇https://blog.csdn.net/qq_29508953/article/details/86494190

为什么要加正则项

  1. \mathbf{X}$^\mathrm{T}$\mathbf{X}$不是满轶会导致线性回归无穷多解问题,而加入正则项可以解决该问题。
  2. 加入正则项可以对模型参数有一定的约束,模型参数空间变小,简化了模型,减小了过拟合风险。

加入正则项后的线性回归推导(还是基于最小二乘法)

这里加入的是L2正则项,当然正则项还有L1和L0

线性回归的目标从

\left ( \boldsymbol{\mathbf{w}}^*,b^* \right )= \mathop{arg min} \limits_{\left ( \boldsymbol{\mathbf{w}},b \right )}\sum\limits_{i=1}^m {\left (\boldsymbol{\mathbf{w}}\mathbf{x}_i+b-y_i \right )^2}

变为

\left ( \boldsymbol{\mathbf{w}}^*,b^* \right )= \mathop{arg min} \limits_{\left ( \boldsymbol{\mathbf{w}},b \right )}\sum\limits_{i=1}^m {\left (\boldsymbol{\mathbf{w}}\mathbf{x}_i+b-y_i \right )^2}+\lambda \boldsymbol{\mathbf{w}}^\mathrm{T}\boldsymbol{\mathbf{w}}

按照上一篇https://blog.csdn.net/qq_29508953/article/details/86494190中定义的{\hat{\boldsymbol{\mathbf{w}}}},{\hat{\boldsymbol{\mathbf{w}}}}^*,\mathbf{X},\boldsymbol{\mathbf{y}}。上式可以写为

\hat{\mathbf{w}}^*= \mathop{arg min} \limits_{\hat{\mathbf{w}}}\left ( \mathbf{y}-\mathbf{X}\hat{\mathbf{w}} \right )^\mathrm{T}\left ( \mathbf{y}-\mathbf{X}\hat{\mathbf{w}} \right )+\lambda \left (\left[ \begin{array}{ccc} \mathbf{I}_n & 0 \\ 0 & 0 \\ \end{array} \right]\hat{\mathbf{w}} \right )^\mathrm{T}\left (\left[ \begin{array}{ccc} \mathbf{I}_n & 0 \\ 0 & 0 \\ \end{array} \right]\hat{\mathbf{w}} \right )

{\hat{\boldsymbol{\mathbf{w}}}}求导得:

2\boldsymbol{\mathbf{X}}^\mathrm{T}\left (\boldsymbol{\mathbf{X}}\hat{\boldsymbol{\mathbf{w}}}-\boldsymbol{\mathbf{y}} \right )+2\lambda \left[ \begin{array}{ccc} \mathbf{I}_n & 0 \\ 0 & 0 \\ \end{array} \right]\hat{\mathbf{w}}

令上式为0,得

\left (\mathbf{X}^\mathrm{T}\mathbf{X}+\lambda\left[ \begin{array}{ccc} \mathbf{I}_n & 0 \\ 0 & 0 \\ \end{array} \right]\right )\hat{\mathbf{w}}=\boldsymbol{\mathbf{X}}^\mathrm{T}\mathbf{y}

\mathbf{M} = \mathbf{X}^\mathrm{T}\mathbf{X},因为\mathbf{M}_{ n+1 }_{ n+1 }=1,且\lambda> 0,所以

\left (\mathbf{X}^\mathrm{T}\mathbf{X}+\lambda\left[ \begin{array}{ccc} \mathbf{I}_n & 0 \\ 0 & 0 \\ \end{array} \right]\right )

必定可逆。

 这样就解决了\mathbf{X}$^\mathrm{T}$\mathbf{X}$不是满轶会导致线性回归无穷多解的问题。

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值