吴恩达机器学习笔记(4)——逻辑回归(logistic regression)

**

一、分类问题(classification)

**首先来看一个例子,用肿瘤的大小来预测肿瘤是良性或者恶性。这个问题的输出只有两个值——良性(1)和恶性(0),通常称之为分类问题。
在这里插入图片描述
如果在此处我们使用线性回归来处理这个问题。那么如果加入最右的那个点,那么直线拟合就从红色斜线变成了蓝色斜线,也就出现了预测的误差。因此线性回归不适合于分类问题。
另外,使用线性回归处理分类问题中常见的问题还有:分类问题的输出值y=0 or 1.但是线性回归的假设的输出值会小于0或者大于1.

因此,我们会使用logistic回归(逻辑回归)算法处理分类问题。该方法被视为一种分类算法,并不是回归算法哦。




二、假设陈述(hypothseis representation)

1、目的:当遇到分类问题时,我们使用哪个方程来表示我们的假设。
2、假设函数(Sigmoid Function/Logistic Function):
在这里插入图片描述

3、函数图形:
在这里插入图片描述
4、函数解释:该函数输出值的意义是“y=1的概率”,即:在这里插入图片描述




三、决策边界(decision boundary)

1、定义:一般的,数据集被一条线划分成了两类,这条线就是决策边界。决策边界不是训练集的属性,而是假设本身及其参数的属性。只要给定了参数θ,边界就可以确定。
2、首先我们假设:
在这里插入图片描述
而根据函数图像的特征,我们可写成:
在这里插入图片描述




四、代价函数(cost function)

1、逻辑回归的代价函数:
在这里插入图片描述
ps:J表示整体代价,cost表示单个样本的代价
2、简化形式:
在这里插入图片描述
ps:根据统计学中极大似然法得来的
3、梯度下降法:
为了求得最优的θ。这里使用梯度下降法。
在这里插入图片描述
偏导计算过程已自行推导,将结果代入后可得:




五、高级优化(Advanced Optimization)

1、其他优化算法以及优缺点在这里插入图片描述
2、octave实现方法
在这里插入图片描述PS:在octave中实现代码的时候,fminunc只能处理二维以上的优化,如果是一维使用fminuc函数。




六、多元分类(multi——class classification)

实际应用中,会存在多个类型。这里使用One-vs-all的方法来处理:
在这里插入图片描述
在这里插入图片描述
即训练出多个分类器,输入x值后,找出h最大值的那个分类器,就为x所属的类别。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值