现在我们回到 LR 模型本身。
回归模型做分类
从前面关于分类与回归的定义来看,分类模型和回归模型似乎是泾渭分流的。输出离散结果的就是用来做分类的,而输出连续结果的,就用来做回归。
我们前面讲的两个模型:线性回归的预测结果是一个连续值域上的任意值,而朴素贝叶斯分类模型的预测结果则是一个离散值。
但 LR 却是用来做分类的。它的模型函为:
$h_\theta(x) = \frac{1}{1 + e^{-\theta^Tx }} $
设 $z = \theta^T x$,则
$h(z) = \frac{1}{1 + e^{-z }} $
在二维坐标中形成 S 形曲线:
上图中,$z$ 是自变量(横轴),最终计算出的因变量 $y$(纵轴),则是一个 [0,1] 区间之内的实数值。
一般而言,当 $y>0.5$ 时,$z$ 被归类为真(True)或阳性(Positive),否则当 $y <=0.5$ 时,$z$ 被归类为假(False)或阴性(Negative)。
所以,在模型输出预测结果时,不必输出 $y$ 的具体取值,而是根据上述判别标准,输出1(真)或0(假)。
因此,LR 典型的