机器学习之逻辑回归

在上篇文章我们介绍了线性回归,这篇文章我们再来介绍一下逻辑回归。
逻辑回归与线性回归的相似之处是他们都具有ax + b,但不同之处是线性回归直接将ax + b 当作因变量,因变量的取值为范围是[-∞, +∞]而在逻辑回归中,ax + b只是中间变量,通过函数S将ax + b对应到一个隐状态p,p = S(ax + b),然后根据p与1- p的大小决定因变量的值,这里的函数S为Sigmoid函数,表达式为
在这里插入图片描述
z = ax + b,得到逻辑回归的最终模型为
y 1 = 1 1 + e − ( a x + b ) y1 = \frac{1}{1 + e^{-(ax+b)}} y1=1+e(ax+b)1
通过图像和函数都可以发现通过函数S,最终我们将值限制在[0,1],似乎因变量的值已经确定了。不,还没完,我们还要确定一个阈值,比如0.6,不过我们一般取得是0.5,如果函数大于这个阈值,那么对应的因变量的值为1,小于阈值就取0,等于阈值的话需要人为规定取1还是0。
逻辑回归的损失函数为
J ( θ ) = − 1 m [ ∑ i = 1 m ( y ( i ) log ⁡ h θ ( x ( i ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ] J(\theta) = -\frac{ 1 }{ m }[\sum_{ i=1 }^{ m } ({y^{(i)} \log h_\theta(x^{(i)}) + (1-y^{(i)}) \log (1-h_\theta(x^{(i)})})] J(θ)=m1[i=1m(y(i)loghθ(x(i))+(1y(i))log(1hθ(x(i)))]
公式与交叉熵有关,具体推导过程可以点击 这里.
其中
m:训练样本的个数;
hθ(x):用参数θ和x预测出来的y值;
y:原训练样本中的y值,也就是标准答案
上角标(i):第i个样本
经过计算,我们可以找出最合适的直线,将散点分为两类。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值