如何通俗理解逻辑回归(Logistic Regression)

首先, 什么是逻辑回归呢? 我们先来看一下逻辑回归的公式:
t = w T X + b y = s i g m o i d ( t ) s i g m o i d ( t ) = 1 1 + e − t t = w^TX+b\\ y = sigmoid(t)\\ sigmoid(t) = \frac1{1+e^{-t}} t=wTX+by=sigmoid(t)sigmoid(t)=1+et1
对于上面的公式, 感觉很眼熟有木有!!! 没错, 就是线性回归的公式, 线性回归请参考https://blog.csdn.net/c2861024198/article/details/108543051

相信小伙伴们都发现了, 其实逻辑回归就是在线性回归的基础上增加了Sigmoid函数, 将线性回归的输出映射到了0和1之间, 从而得到二分类的概率, 这就是逻辑回归

不过, 需要小伙伴们注意的是: 逻辑回归虽然叫回归, 但是他是用来解决分类问题的!!!

那么很多小伙伴可能有疑问了, 线性回归可以使用最小二乘法来解决, 那么逻辑回归呢? 他们的损失函数一样么?

问题我们一个一个解决. 首先我们先说损失函数.

小伙伴们仔细看上面的公式, 不难发现, 逻辑回归根本不能用线性回归的损失函数, 因为逻辑回归的标签(label)应该是0和1, 并不是和线性回归一样的连续性的, 并且逻辑回归的最终输出也应该是0和1, 那么逻辑回归的损失函数应该是什么样的呢?

那么接下来, 我们就需要引入交叉熵损失函数, 在二分类中, 交叉熵损失函数是这样的:
L O S S = − ∑ y l o g y ^ + ( 1 − y ) l o g ( 1 − y ^ ) LOSS = -\sum ylog\hat y + (1-y)log(1-\hat y) LOSS=ylogy^+(1y)log(1y^)
那么, 逻辑回归也是用最小二乘法的思路来做么? 当然不是. 不知道小伙伴们有没有听说过梯度下降法呢? 不知道的小伙伴请参考前面的博客

也就是说, 我们可以使用梯度下降法来使得我们的损失函数尽可能的小, 从而得到我们尽可能优的w和b, 从而得到逻辑回归的函数 w T X + b w^TX+b wTX+b, 进而得到我们的模型.

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小夏refresh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值