Regularization

如果没有足够的数据集约束过多特征的模型,就会发生过拟合。

解决过拟合通常有两个方法:减少特征数量;正则化

根据正则化项不同可分为L1正则化和L2正则化,线性回归的L1正则化叫Lasso回归,L2正则化叫Ridge回归


线性回归:

J(\theta) = \frac{1}{2m}{}\sum_{i=1}^m(h_{\theta}(x^{(i)})-y^{(i)})^{2}+\frac{\lambda }{2m}\sum_{j=1}^{n}\theta_{j}^{2} 

  • 梯度下降迭代更新\theta:(其中j = 1,2......n ; x_{0}^{(i)}=1)

      {

            \theta_{0} := \theta_{0}-\alpha \frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x_{0}^{(i)} 

            \theta_{j} :=\theta_{j}-\alpha[\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x_{j}^{(i)}+\frac{\lambda}{m}\theta_{j}]

      }

  • 正规方程求\theta:(矩阵为n+1维)

        \theta = (X^{T}X+\lambda\begin{bmatrix} 0 & &\\ & 1 &\\ & & 1 \end{bmatrix})^{-1}X^{T}y

逻辑回归:

J(\theta)=\frac{1}{m}\sum_{i=1}^{m} (-y^{(i)}log h_{\theta}(x^{(i)})-(1-y^{(i)})log(1-h_{\theta}(x^{(i)}))+\frac{\lambda }{2m}\sum_{j=1}^{n}\theta_{j}^{2}

  • 梯度下降迭代更新\theta:(其中j = 1,2......n ; x_{0}^{(i)}=1)

     {

            \theta_{0} := \theta_{0}-\alpha \frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x_{0}^{(i)} 

            \theta_{j} :=\theta_{j}-\alpha[\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})x_{j}^{(i)}+\frac{\lambda}{m}\theta_{j}]

     }

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值