1. 模型引入
线性模型可以进行回归学习(参见【机器学习模型1】- 线性回归),但如何用于分类任务?需要找一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来。
对于二分类任务,输出标记 y y y 取值 { 0 , 1 } \{0, 1\} {
0,1},而线性回归预测值 z = w T x + b z = w^Tx+b z=wTx+b 属于实数集 R R R,所以需要一个变换使实值 z z z 映射到 0 / 1 0/1 0/1 值。
引入 S i g m o i d Sigmoid Sigmoid 函数: y = 1 1 + e − z y=\frac{1}{1+e^{-z}} y=1+e−z1,可以将 z z z 值转为一个接近0或1的 y y y 值,而且单调可微。图像如下:
2. 模型描述
根据广义线性模型 y = g − 1 ( θ T x ) y=g^{-1}(\theta^T x) y=g−1(θTx)定义,将Sigmoid函数作为 g − 1 ( ) g^{-1}() g−1()代入:
h θ ( x ) = 1 1 + e − θ T x h_\theta(x) = \frac{1}{1+e^{-\theta^T x}} hθ(x)=1+e−θTx1
对数几率函数:逻辑回归也称为对数几率函数。
- h θ ( x ) h_\theta(x) hθ(x)反映了作为正例的可能性 ,则 1 − h θ ( x ) 1-h_\theta(x) 1−hθ(x) 反映了作为负例的可能性
- 所以 h θ ( x ) 1 − h θ ( x ) \frac{h_\theta(x)}{1-h_\theta(x)} 1−hθ(x)hθ(x)反映了作为正例的相对可能性, h θ ( x ) 1 − h θ ( x ) > 1 \frac{h_\theta(x)}{1-h_\theta(x)} > 1 1−hθ(x)hθ(x)>1,则为正例,称为 “几率”。
- l n h θ ( x ) 1 − h θ ( x ) ln\frac{h_\theta(x)}{1-h_\theta(x)} ln1−hθ(x)hθ