吴恩达机器Deeplearning.ai课程学习记录:线性回归的正则化

线性回归的正则化

min\frac{1}{2m}\sum(f_{w,b}(x^{(i)}-y^{(i)}))^2+\frac{\lambda}{2m}\sum(w^2_j),\lambda>0

这是上一节中我们提出的线性回归的代价函数正则化,其中前面一部分是平方误差成本函数,后面一部分是是正则化项,其中\lambda是正则化系数,你希望通过找w,b从而最小化代价函数。

事实上,正则化线性回归的更新和一般线性回归的更新在形式上一模一样,除了现在的代价函数的定义不同(多了正则化项):

w_j=w_j-\alpha\frac{\partial }{\partial w_j}J(w,b)

b=b-\alpha\frac{\partial}{\partial b}J(w,b)

经过化简,去除偏导,结果变为:

w_j=w_j-\alpha(\frac{1}{m}\sum(f_{w,b}(x^{(i)})-y^{(i)})x_j^{(i)}+\frac{\lambda}{m}w_j)

b=b-\alpha(\frac{1}{m}\sum(f_{w,b}(x^{(i)})-y^{(i)}))

衍生——通过数学角度再次理解(非必要,可跳过)

将上面的w_j小小地变个形:

w_j=w_j(1-\alpha\frac{\lambda}{m})-\alpha\frac{1}{m}\sum (f_{w,b}(x^{(i)})-y^{(i)})x^{(i)}_j

我们只是简单地调换了顺序,可以看作有两项,前面一项更新了w_j(乘以了个系数),

后面一项就可以理解为通常的梯度下降更新(和普通线性回归里面的一样)

我们把注意力放到前面一项,如果\lambda是一个很小的数,例如1,10,而n大于它,比如50,学习率是个0.001,那么w_j就乘以了一个很接近于1的数(比如0.998),因此从数学公式可以看出,正则化就是每次迭代的时候都给w_j乘以了一个接近于1的数并对其进行了调整(具有收缩效果),这可以看作另一个角度去理解正则化为什么使得w_j变小了一些。

逻辑回归的正则化

逻辑回归的正则化与先行回归几乎一致,只是f函数变成了sigmoid函数,这里不再赘述。
 

  • 10
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

江安的猪猪

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值