说在前面
逻辑回归从何而来?
线性回归是用一个线性模型来对数据进行拟合,但是它对离群点的容忍能力很差。所以,逻辑回归在此基础上加了一个sigmoid函数,从而变成了一个分类模型。
分类时,约定分类模型 f ( x ) f(x) f(x)满足:
f ( x ) = 1 , g ( z ) ≥ 0.5 f(x) = 1, \quad g(z) \ge 0.5 f(x)=1,g(z)≥0.5
f ( x ) = 0 , g ( z ) < 0.5 f(x) = 0, \quad g(z) \lt 0.5 f(x)=0,g(z)<0.5
其中,
z = w x z = wx z=wx
g ( z ) = s i g m o i d ( z ) = 1 1 + e − z g(z) = sigmoid(z) = \frac{1}{1+e^{-z}} g(z)=sigmoid(z)=1+e−z1
而我们模型要学习的就是这个 w w w
由此可以看出,逻辑回归模型的表示形式其实就是下面(1)(2)表示的条件概率分布 P ( Y ∣ X ) P(Y|X) P(Y∣X),毕竟别忘了它本身就是个判别模型,预测的时候是通过计算条件概率 P ( Y ∣ X ) P(Y|X) P(Y∣X)得到最终类别标签的。
P ( Y = 1 ∣ x ) = 1 1 + e − w x = e w x 1 + e w x ( 1 ) P(Y=1|x) = \frac{1}{1+e^{-wx}} = \frac{e^{wx}}{1+e^{wx}}\qquad(1) P(Y=1∣x)=1+e−wx1=1