Chapeter 7 Logistic Regression(逻辑回归)
少说b话,好好读书。
课程笔记总览传送门:https://blog.csdn.net/weixin_42900928/article/details/86523192
目录
Chapeter 7 Logistic Regression(逻辑回归)
7.2 Hypothesis Representation(假设函数表达式)
7.5 Simplified Cost Function and Gradient(简化代价函数和梯度下降)
7.6 Advanced Optimization(高级优化)
7.7 Multiclass Classification_ One-vs-all(多类别分类_一对多)
7.1 Classification(分类)
![](https://i-blog.csdnimg.cn/blog_migrate/d487db81f89e85590ea3ba58704fb327.png)
常见的分类有:垃圾邮件?(是/否)、诈骗?(是/否)、肿瘤?(良/恶)等等;
这些都可以用(0、1)表示(是、否),是二分类问题;
针对二分类问题,线性回归显然无法满足需求(y值应当在0到1区间内),所以引入逻辑回归进行拟合。
分类不仅仅包含二分类,还有多分类,y值(离散)可以取0、1、2、3....
7.2 Hypothesis Representation(假设函数表达式)
![](https://i-blog.csdnimg.cn/blog_migrate/6f431c693b9d0142900ccd33c8a36bdc.png)
逻辑回归的假设函数 的表达式为:
。
![](https://i-blog.csdnimg.cn/blog_migrate/4bc1d8b33056495bf7ba8d4f1675b43a.png)
= 0.7时,可以这么认为:有70%的概率y=1,即有7成可能是恶性肿瘤。
7.3 Decision Boundary(决策边界)
定义:根据 的表达式以及确定的阈值,划分出 y=0 和 y=1 区域的,函数曲线。如图 3-1。
![](https://i-blog.csdnimg.cn/blog_migrate/50317167a676e9863cfda746a451ddfc.png)
阈值确定后的数学表达如图3-2:
![](https://i-blog.csdnimg.cn/blog_migrate/bd35514c7655dacc75820dcec144e6d6.png)
可以看到,如果阈值为0.5,那么为了方便计算、理解,其等价于 。
再举个例子:
![](https://i-blog.csdnimg.cn/blog_migrate/0773284ef0b9b6be6fccc747d90562fd.png)
当特征方程足够复杂时,会有各种各样的决策边界,which也更符合现实情况;
值得注意的是:决策边界是由参数 决定的,而不是由训练集决定的。训练集存在的意义是确定参数
。
因此:训练集→参数 →决策边界→结合训练集,可视化。
7.4 Cost Function(代价函数)
上一节说了要选取参数 作为决策边界的基础,那么,这个工作就是代价函数要做的。
![](https://i-blog.csdnimg.cn/blog_migrate/44581b6ca60947a98e0181d7a4391587.png)
图4-1表示,如果选用和线性回归一样的代价函数,会造成左边的图像结果(非凸),这样找的都是极小值而最小值很难找到;
代价函数需要可以快速找到最小值的函数,也就是像右图一样的凸函数。
图4-2即为所需:
![](https://i-blog.csdnimg.cn/blog_migrate/ede133edd776ed1bb1e10b1790b68a6c.png)
记住,代价函数的目的是减小误差,优化拟合度。永远不忘目的。
7.5 Simplified Cost Function and Gradient(简化代价函数和梯度下降)
7.4节提到了逻辑回归的代价方程,但它是分段函数,为了方便计算,转换为一个方程的形式:
![](https://i-blog.csdnimg.cn/blog_migrate/7108d49a8c0f02da7bb0e86441374602.png)
如图,方程被简化成一行,这里是极大似然估计后的结果。
需要注意的是,目的。目的依然是寻找最小的代价,提高拟合度。
梯度下降的表达式,和线性回归相似, 为学习率。
![](https://i-blog.csdnimg.cn/blog_migrate/8050db430974b247119bb0f5835ea6c0.png)
求导项计算后,得出如下公式:
![](https://i-blog.csdnimg.cn/blog_migrate/331d4135e278568ba8f661b7b61f8e97.png)
这里可以看到,线性回归和逻辑回归的梯度下降表达式形式完全一样,但它们不是一个公式。
原因:两者的 不一样。
7.6 Advanced Optimization(高级优化)
介绍了几个收敛更快、能自动选择学习率的算法。长长见识,先不管。
![](https://i-blog.csdnimg.cn/blog_migrate/7afb320b7690fee01ded57c41118f64c.png)
7.7 Multiclass Classification_ One-vs-all(多类别分类_一对多)
7.1节提到过的多分类问题,处理过程如下图。
![](https://i-blog.csdnimg.cn/blog_migrate/1a69f748d3bf5f84cce6d43c550d9388.png)
假设有三个目标,分别对其中每一个进行二分类处理(如:先处理三角,三角为1,其余为0)
最后输入x,输出的 最大的 i,就代表这个分类的可能性最高。