机器学习入门系列三(关键词:逻辑回归,正则化)

一、逻辑回归

1.逻辑回归

什么是逻辑回归问题,通俗地讲就是监督下的分类问题。通过前面的学习,我们已经掌握如何解决线性(非线性)回归的问题。那面对分类问题我们是否也可以用线性回归呢?简单起见,我们先讨论二元分类,首先让我们来看一个例子,肿瘤的大小与是否是恶性的关系,其中红色的 × 表示肿瘤大小,对应的 y 轴表示是否为恶性。
这里写图片描述
我们对数据进行线性回归,得到了一条很完美的直线。我们可以规定,当拟合出来的 y 值大于0.5时,为恶性1;当 y 值小于0.5时,为良性0。这一切看起来似乎很合理,当我们增加一个数据,即有一个肿瘤非常大,显然它是恶性的,但是再用线性回归时,我们可以发现为了去更好地拟合,直线的斜率变低,0.5不再是恶性与良性的分界线。除了这个问题之外,我们知道 y 的可取值应该是 [0,1] ,而采用线性回归我们发现y的可取值是 [,+] 。这一系列的问题就促使我们希望寻求一个新的方法来解决分类问题。

2.假设表示

在线性回归问题中,我们定义了

hθ(x)=θTx(1)
在分类问题中,我们改变该函数,增加一个作用函数,即
hθ(x)=g(θTx)(2)
其中 g(z) 为sigmoid函数
g(z)=11+ez(3)

那么把式(3)代入式(2),得
hθ(x)=11+eθTx(4)
为什么要使用sigmoid函数?有一系列的数学原因,感兴趣的可以搜索广义线性模型,在这里就不阐述原因了。我们来直观地感受一下sigmoid函数,当 z 时, g0 ;当 z+ 时, g1
这里写图片描述
下面我们对 hθ(x) 输出的结果做一个解释。由于它的取值范围,我们可以把它理解为概率。若 hθ(x)=0.7 ,在二元分类(本例)中即表示肿瘤在输入变量 x 下为恶性( y=1 )的概率为 70% 。由于是二元分类, y 取值不是0就是1,因此肿瘤为良性( y=0 )的概率为 170%=30%
由于sigmoid函数的性质,且 hθ(x)(0,1) ,我们认为当 hθ(x)0.5 时,我们把数据 x 预测为类1即 y=1 ;当 hθ(x)<0.5 时,我们把数据 x 预测为类0即 y=0 。因此当 θTx0 时,预测为类1;当 θTx<0 时,预测为类0。

3.决策边界

既然是分类问题,那么对于二分类,

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值