本文是吴恩达《机器学习》视频笔记第43篇,对应第3周第11个视频。
“Regularization——Regularized logistic regression”。
![e4ff23a3fea28c8859431e58ee6b5c32.png](https://i-blog.csdnimg.cn/blog_migrate/c888ac560acf6cb16bf13b4952795c11.png)
对于逻辑回归代价函数的优化,我们前面也讲过两种办法:(1)比较通用的梯度下降法;(2)一类比较高级的方法,就是想办法计算出代价函数的导数,类似于线性回归中的正规方程的方法。
本小节介绍如何使用正则化解决逻辑回归的问题。
如上上小节所述,逻辑回归分类的过拟合问题,会使得决策边界非常的扭曲。
![f2be99333b19bdc27c9ed0700cb68835.png](https://i-blog.csdnimg.cn/blog_migrate/e9de9619ba5b39d09aaa19b2d1d9d446.png)
类似的,加入正则化项后的代价函数是:
![055e2d845ccfd329ada9c23200caf28f.png](https://i-blog.csdnimg.cn/blog_migrate/b22fe715fb75c805d084440a725abb10.png)
与线性回