摘要
逻辑斯特回归同样属于监督学习,说到回归一般指的是对连续值的预测,这里的逻辑斯特回归用来解决分类问题,此篇博客主要以二分类为例子分析。
例子如下:
横坐标表示肿瘤大小,纵坐标表示是否为恶性肿瘤。
可以看到线性回归得到的一条直线中加上一个阈值(大于某一值取正样本,反之取负样本)可以对这8个样本点有一个比较明确的分类,如下如图:
但是这个方法对噪声点很敏感,如果我们增加三个样本点,得到一个新的拟合直线:
再用刚才的阈值来划分时发现,新添加的样本被判断错了,鲁棒性不够,由此可见在线性回归中很难找一个绝对的值来严格划分样本结果,此时使用逻辑斯特回归来解决。
问题分析
逻辑斯特回归利用一个相对的值(线性回归不能绝对的确定结果)——概率,来对每一个样本点预测,它的输出被映射到
[
0
,
1
]
[0,1]
[0,1]上,是一个连续值。此映射归功于sigmoid函数:
y
=
1
1
+
e
−
x
y=\frac{1}{1+e^{-x}}
y=1+e−x1
逻辑斯特的做法是:将线性回归的结果映射到sigmoid函数可以得到每一个样本点的概率值。但是需要一组好的参数来将样本分开,这里的参数就是判定边界的参数。
接下来讨论一个概念——判定边界,就是在样本集中分类的边界。
如图线性回归中,判定边界为一条直线,我们假设为
y
=
−
3
+
x
1
+
x
2
y=-3+x_1+x_2
y=−3+x1+x2,当
y
=
0
y=0
y=0时,直线将样本划分为两类:
其中:
h
θ
(
x
)
=
g
(
θ
0
+
θ
1
x
1
+
θ
2
x
2
)
h_\theta(x)=g(\theta_0+\theta_1x_1+\theta_2x_2)
hθ(x)=g(θ0+θ1x1+θ2x2)
表示将线性回归的结果映射到sigmoid函数,
h
θ
(
x
)
h_\theta(x)
hθ(x)输出一个
[
0
,
1
]
[0,1]
[0,1]的概率值,
y
=
0
y=0
y=0为此时的判定边界,在直线上方是正样本,下方为负样本,假设的参数
θ
\theta
θ是要学习的。
同理当我们造出高次项的特征时,非线性的判定边界也可以是曲线。当
y
=
0
y=0
y=0时为圆的边,
y
>
0
y>0
y>0为圆的外面,
y
<
0
y<0
y<0为圆的里面,这样可以很好的分类样本集。
逻辑斯特回归的损失函数:
线性回归中利用方差的方法不适合,因为逻辑回归的是分类问题,所求得结果是概率,在
[
0
,
1
]
[0,1]
[0,1]之间 导致
h
θ
(
x
)
h_\theta(x)
hθ(x)是一个不光滑的曲线(非凸函数,有局部最小点,梯度下降法不能用),此时使用互熵损失:
C
o
s
t
(
h
θ
(
x
)
,
y
)
=
{
−
l
o
g
(
h
θ
(
x
)
)
i
f
:
y
=
1
−
l
o
g
(
1
−
h
θ
(
x
)
)
i
f
:
y
=
0
Cost(h_\theta(x),y)=\left\{ \begin{array}{rcl} -log(h_\theta(x)) &if: &y=1\\ -log(1-h_\theta(x)) &if: &y=0\\ \end{array} \right.
Cost(hθ(x),y)={−log(hθ(x))−log(1−hθ(x))if:if:y=1y=0
当
y
=
1
y=1
y=1结果是正样本时,
x
x
x越接近1,
C
o
s
t
Cost
Cost函数越小,损失越小:
当
y
=
0
y=0
y=0结果是正样本时,
x
x
x越接近0,
C
o
s
t
Cost
Cost函数越小,损失越小:
可得出逻辑斯特回归的损失函数:
J
(
θ
)
=
1
m
∑
i
=
1
m
C
o
s
t
(
h
θ
(
x
(
i
)
)
,
y
(
i
)
)
=
−
1
m
∑
i
=
1
m
[
(
y
i
l
o
g
h
θ
(
x
(
i
)
)
+
(
1
−
y
i
)
l
o
g
(
1
−
h
θ
(
x
(
i
)
)
)
]
J(\theta)=\frac{1}{m}\sum_{i=1}^mCost(h_\theta(x^{(i)}),y^{(i)})\\ =-\frac{1}{m}\sum_{i=1}^m[(y^{i}logh_\theta(x^{(i)})+(1-y^{i})log (1-h_\theta(x^{(i)}))]
J(θ)=m1i=1∑mCost(hθ(x(i)),y(i))=−m1i=1∑m[(yiloghθ(x(i))+(1−yi)log(1−hθ(x(i)))]
别忘了L2正则化:
J
(
θ
)
=
−
1
m
∑
i
=
1
m
[
(
y
i
l
o
g
h
θ
(
x
(
i
)
)
+
(
1
−
y
i
)
l
o
g
(
1
−
h
θ
(
x
(
i
)
)
)
]
+
λ
2
m
∑
i
=
1
m
θ
i
2
J(\theta) =-\frac{1}{m}\sum_{i=1}^m[(y^{i}logh_\theta(x^{(i)})+(1-y^{i})log (1-h_\theta(x^{(i)}))]+\frac{\lambda}{2m}\sum_{i=1}^m\theta_i^2
J(θ)=−m1i=1∑m[(yiloghθ(x(i))+(1−yi)log(1−hθ(x(i)))]+2mλi=1∑mθi2
接下来是梯度下降(
J
θ
(
x
)
J_\theta(x)
Jθ(x)是一个凸函数,只存在一个最优解)法寻找最优解:
θ
i
=
θ
i
−
α
∂
∂
θ
i
J
(
θ
)
\theta_i=\theta_i-\alpha\frac{\partial}{\partial \theta_i}J(\theta)
θi=θi−α∂θi∂J(θ)
多分类问题是可以构建多个分类器,例如:对A和{B,C}分类构建分类器,然后再对B,C构建分类器。
总结与链接
LR(逻辑斯特回归)使用注意:
1.样本量太大时可以:
- 离散化后用one-hot编码处理;
- 连续值注意要用scaling(标准化)
2.样本平衡 - LR对样本敏感,注意噪声样本
- 做上采样(样本多,可以对不均衡样本采样,正多采正)和下采样(图像中对样本丰富,镜像,反转…)
- 改lose function(对不均衡样本权重调节)