【Machine Learning】6 逻辑回归(Logistic Regression)

6.1 分类

h_{\theta}(x)拟合,再离散化处理(大于某一阈值输出1,小于输出0)

我们可以看到第一种情况下,分类效果很好;增加了一个例子的第二种会差一些。

逻辑回归其实是分类的一种。

6.2 Hypothesis Representation假说表示

sigmoid function/logistic function可以得到概率来,替代原本非0即1的分类

6.3 Decision Boundary决策边界

也就是说当\theta ^{^{T}}x\geqslant 0时,这个模型预测y=1,否则y=0

那么\theta ^{^{T}}x= 0就是原来数据集中分割两部分的线,给出两个例子:

6.4 代价函数

单纯用sigmoid函数我们可能会得到一个非凸的cost function,这样可能无法收敛到最优解。

定义新的cost function:

很合常理,当y=1时,h_{_{\theta}}(x)随着远离1,预测越来越不准确,代价自然增大;当y=0是同理。

它的cost function可以写作如下形式:

6.5 简化代价函数和梯度下降

对于新提出的cost function我们如何利用梯度下降呢?

似乎得到的迭代式子跟线性回归一致,但此处的h_{_{\theta}}(x)早已不是线性组合的形式而是sigmoid函数。

线性回归的特征放缩加速方法也适用于逻辑回归。

6.6 Advanced optimization高级优化

这节提及优化方法里的几种常见的算法,比较简单。

6.7 多分类问题

如图,我们已经知道如何进行二元分类,如何进行多类分类呢?如上建立三个伪训练集,分解成三个二元分类。

我们得到了三个分类器,挑出一个使h_{\theta}(x)最大的,即maxh_{\theta}^{(i)}(x).

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值