吴恩达机器学习课程笔记——Ch7 逻辑回归

Chapeter 7 Logistic Regression(逻辑回归)

少说b话,好好读书。

课程笔记总览传送门:https://blog.csdn.net/weixin_42900928/article/details/86523192


目录

Chapeter 7 Logistic Regression(逻辑回归)

7.1 Classification(分类)

7.2 Hypothesis Representation(假设函数表达式)

7.3 Decision Boundary(决策边界)

7.4 Cost Function(代价函数)

7.5 Simplified Cost Function and Gradient(简化代价函数和梯度下降)

7.6 Advanced Optimization(高级优化)

7.7 Multiclass Classification_ One-vs-all(多类别分类_一对多)


 7.1 Classification(分类)

图 1-什么是分类

 

常见的分类有:垃圾邮件?(是/否)、诈骗?(是/否)、肿瘤?(良/恶)等等;

这些都可以用(0、1)表示(是、否),是二分类问题;

针对二分类问题,线性回归显然无法满足需求(y值应当在0到1区间内),所以引入逻辑回归进行拟合。

分类不仅仅包含二分类,还有多分类,y值(离散)可以取0、1、2、3....


7.2 Hypothesis Representation(假设函数表达式)

图 2-1 逻辑回归表达式

逻辑回归的假设函数 h_{(\theta)}x  的表达式为:\frac{1}{1+e^{-\theta^{T}}x}

 

图 2-2 意义

h_{(\theta)}x = 0.7时,可以这么认为:有70%的概率y=1,即有7成可能是恶性肿瘤。


7.3 Decision Boundary(决策边界)

定义:根据 h_{(\theta)}x 的表达式以及确定的阈值,划分出 y=0 和 y=1 区域的,函数曲线。如图 3-1。

图 3-1 决策边界

 

阈值确定后的数学表达如图3-2:

图 3-2 阈值的数学表达

可以看到,如果阈值为0.5,那么为了方便计算、理解,其等价于 \theta^{T}x\geq(< ) 0 。

 

再举个例子:

图 3-3 例子

当特征方程足够复杂时,会有各种各样的决策边界,which也更符合现实情况;

值得注意的是:决策边界是由参数 \theta 决定的,而不是由训练集决定的。训练集存在的意义是确定参数 \theta 。

因此:训练集→参数 \theta→决策边界→结合训练集,可视化。


7.4 Cost Function(代价函数)

上一节说了要选取参数 \theta 作为决策边界的基础,那么,这个工作就是代价函数要做的。

图 4-1 代价函数的选取

图4-1表示,如果选用和线性回归一样的代价函数,会造成左边的图像结果(非凸),这样找的都是极小值而最小值很难找到;

代价函数需要可以快速找到最小值的函数,也就是像右图一样的凸函数。

 

图4-2即为所需:

图 4-2 逻辑回归的代价函数

记住,代价函数的目的是减小误差,优化拟合度。永远不忘目的。


7.5 Simplified Cost Function and Gradient(简化代价函数和梯度下降)

7.4节提到了逻辑回归的代价方程,但它是分段函数,为了方便计算,转换为一个方程的形式:

图 5-1 简化后的代价函数

如图,方程被简化成一行,这里是极大似然估计后的结果。

需要注意的是,目的。目的依然是寻找最小的代价,提高拟合度。

 

梯度下降的表达式,和线性回归相似,\alpha 为学习率。

图 5-2 梯度下降表达式(一)

 

求导项计算后,得出如下公式:

图 5-3 梯度下降表达式(二)

这里可以看到,线性回归和逻辑回归的梯度下降表达式形式完全一样,但它们不是一个公式。

原因:两者的 h_{(\theta)}x 不一样。


7.6 Advanced Optimization(高级优化)

介绍了几个收敛更快、能自动选择学习率的算法。长长见识,先不管。

图 7-1 高级算法

 


7.7 Multiclass Classification_ One-vs-all(多类别分类_一对多)

 7.1节提到过的多分类问题,处理过程如下图。

图 7-1 多分类过程示意图

假设有三个目标,分别对其中每一个进行二分类处理(如:先处理三角,三角为1,其余为0)

最后输入x,输出的 h_{\theta}^{(i)}(x) 最大的 i,就代表这个分类的可能性最高。

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值