逻辑回归(Logistic Regression)一般用于二分类问题,用于建模样本属于某一类别的概率。
使用概率的好处是,在具体场景下可以通过设置不同的阈值以满足不同的需求。比如我们可能只会在明天有很大概率下雨时才会带伞,但却不愿将钱借给一个哪怕只有很小概率会赖账的人。概率阈值反映了我们的保守程度。
我们带着两个问题来阅读下面的内容:
1、为什么逻辑回归叫这么个奇怪的名字?
2、逻辑回归为什么是线性模型?
二分类问题:
P
(
X
)
=
P
r
(
Y
=
1
∣
X
)
P(X)=Pr(Y=1|X)
P(X)=Pr(Y=1∣X)
即,给定X,求Y=1的概率。
线性回归
p
(
X
)
=
β
0
+
β
1
X
p(X)=\beta_0+\beta_1X
p(X)=β0+β1X
逻辑回归
p
(
X
)
=
e
β
0
+
β
1
X
1
+
e
β
0
+
β
1
X
=
1
1
+
e
−
(
β
0
+
β
1
X
)
=
s
i
g
m
o
i
d
(
β
0
+
β
1
X
)
)
\begin{aligned} p(X)&=\frac{e^{\beta_0+\beta_1X}}{1+e^{\beta_0+\beta_1X}}\\ &=\frac{1}{1+e^{-(\beta_0+\beta_1X)}} \\ &=sigmoid(\beta_0+\beta_1X)) \end{aligned}
p(X)=1+eβ0+β1Xeβ0+β1X=1+e−(β0+β1X)1=sigmoid(β0+β1X))
odds
o
d
d
s
=
p
(
X
)
1
−
P
(
X
)
=
e
β
0
+
β
1
X
\begin{aligned} odds&=\frac{p(X)}{1-P(X)}\\ &=e^{\beta_0+\beta_1X} \end{aligned}
odds=1−P(X)p(X)=eβ0+β1X
l o g ( o d d s ) = β 0 + β 1 X log(odds)=\beta_0+\beta_1X log(odds)=β0+β1X
log-odds也叫logit, 我们可以形象地将其称为 log it(对它取对数)
因为逻辑回归有一个logit,并且它是X的线性函数,因此我们说逻辑回归是一个线性模型。而Logistic这个名称其实就来源于logit。
最后要值得注意一点,因为逻辑回归的底层方法是使用回归方法拟合分类概率,因此它虽以回归为名,但却是分类模型。
对逻辑回归的损失函数及梯度推导感兴趣的朋友,可以阅读我的另外一篇博文二元交叉熵损失梯度推导。