逻辑回归

6 篇文章 0 订阅
5 篇文章 0 订阅

逻辑回归(Logistic Regression)一般用于二分类问题,用于建模样本属于某一类别的概率。

使用概率的好处是,在具体场景下可以通过设置不同的阈值以满足不同的需求。比如我们可能只会在明天有很大概率下雨时才会带伞,但却不愿将钱借给一个哪怕只有很小概率会赖账的人。概率阈值反映了我们的保守程度。

我们带着两个问题来阅读下面的内容:
1、为什么逻辑回归叫这么个奇怪的名字?
2、逻辑回归为什么是线性模型?

二分类问题
P ( X ) = P r ( Y = 1 ∣ X ) P(X)=Pr(Y=1|X) P(X)=Pr(Y=1X)
即,给定X,求Y=1的概率。

线性回归
p ( X ) = β 0 + β 1 X p(X)=\beta_0+\beta_1X p(X)=β0+β1X

逻辑回归
p ( X ) = e β 0 + β 1 X 1 + e β 0 + β 1 X = 1 1 + e − ( β 0 + β 1 X ) = s i g m o i d ( β 0 + β 1 X ) ) \begin{aligned} p(X)&=\frac{e^{\beta_0+\beta_1X}}{1+e^{\beta_0+\beta_1X}}\\ &=\frac{1}{1+e^{-(\beta_0+\beta_1X)}} \\ &=sigmoid(\beta_0+\beta_1X)) \end{aligned} p(X)=1+eβ0+β1Xeβ0+β1X=1+e(β0+β1X)1=sigmoid(β0+β1X))
odds
o d d s = p ( X ) 1 − P ( X ) = e β 0 + β 1 X \begin{aligned} odds&=\frac{p(X)}{1-P(X)}\\ &=e^{\beta_0+\beta_1X} \end{aligned} odds=1P(X)p(X)=eβ0+β1X

l o g ( o d d s ) = β 0 + β 1 X log(odds)=\beta_0+\beta_1X log(odds)=β0+β1X

log-odds也叫logit, 我们可以形象地将其称为 log it(对它取对数)

因为逻辑回归有一个logit,并且它是X的线性函数,因此我们说逻辑回归是一个线性模型。而Logistic这个名称其实就来源于logit。

最后要值得注意一点,因为逻辑回归的底层方法是使用回归方法拟合分类概率,因此它虽以回归为名,但却是分类模型。

对逻辑回归的损失函数及梯度推导感兴趣的朋友,可以阅读我的另外一篇博文二元交叉熵损失梯度推导

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值