现在讲下决策边界(decision boundary)的概念。这个概念能更好地帮助我们理解逻辑回归的假设函数在计算什么。
在逻辑回归中,我们预测:
当时 h θ ( x ) ≥ 0.5 h_{\theta }(x)\geq 0.5 hθ(x)≥0.5,预测 y=1。
当时 h θ ( x ) h_{\theta }(x) hθ(x)< 0.5,预测 y=0。
根据上面绘制出的 S 形函数图像,我们知道当
z=0时,g(z)=0.5;
z>0时,g(z)>0.5;
z<0时,g(z)<0.5。
又
z
=
θ
T
x
z=\theta ^{T}x
z=θTx,即:
θ
T
x
\theta ^{T}x
θTx>=0 时,预测y=1;
θ
T
x
\theta ^{T}x
θTx<0 时,预测y=0。
现在假设我们有一个模型:
并且参数
θ
\theta
θ是向量[-3 1 1]。 则当
−
3
+
x
1
+
x
2
+
x
3
≥
0
-3+x_{1}+x_{2}+x_{3}\geq 0
−3+x1+x2+x3≥0,即
x
1
+
x
2
≥
3
x_{1}+x_{2}\geq 3
x1+x2≥3时,模型将预测y=1 。 我们可以绘制直线
x
1
+
x
2
=
3
x_{1}+x_{2}=3
x1+x2=3,这条线便是我们模型的分界线,将预测为1的区域和预测为 0的区域分隔开。
假使我们的数据呈现这样的分布情况,怎样的模型才能适合呢?
因为需要用曲线才能分隔
y
=
0
y=0
y=0的区域和
y
=
1
y=1
y=1的区域,我们需要二次方特征:
h
θ
(
x
)
=
g
(
θ
0
+
θ
1
x
1
+
θ
2
x
2
+
θ
3
x
1
2
+
θ
4
x
2
2
)
h_{\theta}(x)=g(\theta_{0}+\theta_{1}x_{1}+\theta{2}x_{2}+\theta_{3}x_{1}^{2}+\theta_{4}x_{2}^{2})
hθ(x)=g(θ0+θ1x1+θ2x2+θ3x12+θ4x22)是[-1 0 0 1 1],则我们得到的判定边界恰好是圆点在原点且半径为1的圆形。
我们可以用非常复杂的模型来适应非常复杂形状的判定边界。