AdaBoost 算法的训练误差分析
AdaBoost最基本的性质是它能在学习过程中不断减少训练误差,即在训练数据集上的分类误差率。
定理:AdaBoost的训练误差界:
1
N
∑
i
=
1
N
I
(
G
(
x
i
)
≠
y
i
)
≤
1
N
∑
i
e
x
p
(
−
y
i
f
(
x
i
)
)
=
∏
Z
m
\frac{1}{N}\displaystyle\sum_{i=1}^{N}I(G(x_i)≠y_i)≤\frac{1}{N}\displaystyle\sum_{i}exp(-y_if(x_i))=∏Z_m
N1i=1∑NI(G(xi)̸=yi)≤N1i∑exp(−yif(xi))=∏Zm
证明:当
G
(
x
i
)
≠
y
i
G(x_i)≠y_i
G(xi)̸=yi时,
y
i
f
(
x
i
)
<
0
y_if(x_i)<0
yif(xi)<0,因而
e
x
p
(
−
y
i
f
(
x
i
)
)
≥
1
exp(-y_if(x_i))≥1
exp(−yif(xi))≥1,由此直接推导出前半部分。
后半部分的推导要利用
Z
m
Z_m
Zm的定义式及其变形:
w
m
i
e
x
p
(
−
α
m
y
i
G
m
(
x
i
)
)
=
Z
m
w
m
+
1
,
i
w_{mi}exp(-α_my_iG_m(x_i))=Z_mw_{m+1,i}
wmiexp(−αmyiGm(xi))=Zmwm+1,i
推导过程如下:
这一定理说明,可以再每一轮选取适当的
G
m
G_m
Gm使得
Z
m
Z_m
Zm最小,从而使得训练误差下降最快。
(
G
m
的
选
择
时
在
权
重
向
量
D
m
确
定
的
情
况
下
,
使
样
本
误
分
类
率
最
低
G_m的选择时在权重向量D_m确定的情况下,使样本误分类率最低
Gm的选择时在权重向量Dm确定的情况下,使样本误分类率最低)
定理2:二分类问题AdaBoost的训练误差界: