前一篇文章,介绍了指示损失函数下的机器学习ERP原则一致性的充分条件,从有限指示损失函数集推广到了无限的指示损失函数集。
本文将介绍有界实损失函数集上的一致收敛的条件。
为了区别将前文中的损失函数集记为:
{Q(x;θ)|θ∈Λ}
{
Q
(
x
;
θ
)
|
θ
∈
Λ
}
。
假设样本是m维的随机变量,记:
R(θ)=∫RmQ(x,θ)dF(x)
R
(
θ
)
=
∫
R
m
Q
(
x
,
θ
)
d
F
(
x
)
Rexp(X,θ)=1n∑ni=1Q(xi,θ) R e x p ( X , θ ) = 1 n ∑ i = 1 n Q ( x i , θ ) X X 代表任意一个样本集,有个样本。
目标是分析:
有界实损失函数上的大数定理
先讨论实损失函数
|Q(x,θ)|<ϕ(x)<∞
|
Q
(
x
,
θ
)
|
<
ϕ
(
x
)
<
∞
是有界实函数。
假定:
a≤Q(x,θ)≤b
a
≤
Q
(
x
,
θ
)
≤
b
从新表述一下
∫RmQ(x,θ)dF(x)
∫
R
m
Q
(
x
,
θ
)
d
F
(
x
)
:
事实上,可以假设 a=0 a = 0 ,如果 ∀a≠0 ∀ a ≠ 0 ,只需变换一下损失函数: Q∗(x,θ)=Q(x,θ)−a Q ∗ ( x , θ ) = Q ( x , θ ) − a 都有:
∣∣∣∫RmQ∗(x,θ)dF(x)−1n∑k=1nQ∗(xk,θ)∣∣∣=∣∣∣∫RmQ(x,θ)dF(x)−1n∑k=1nQ(xk,θ)∣∣∣=supθ∈Λ∣R(θ)−Rexp(X,θ)∣ | ∫ R m Q ∗ ( x , θ ) d F ( x ) − 1 n ∑ k = 1 n Q ∗ ( x k , θ ) | = | ∫ R m Q ( x , θ ) d F ( x ) − 1 n ∑ k = 1 n Q ( x k , θ ) | = s u p θ ∈ Λ ∣ R ( θ ) − R e x p ( X , θ ) ∣
因此要求 a=0 a = 0 并不是必须的。 为了方便描述,下文中假定 a=0,B=b−a=b a = 0 , B = b − a = b ,
从Lebesgue积分角度来看
R(θ)
R
(
θ
)
和
Rexp(X,θ)
R
e
x
p
(
X
,
θ
)
对于 Rexp(X,θ) R e x p ( X , θ ) ,同样我们有:
因此有:
由此我们得到:
将有界实函数转化到指示损失函数 I(x,θ,β)=1{Q(x,θ)−β} I ( x , θ , β ) = 1 { Q ( x , θ ) − β } 上,不过增加了一个参数 β β ,根据指示损失函数上的结论,得到下面的不等式:
于是有下面的定理:
定理3:在实损失函数集 |Q(x,θ)|<∞ | Q ( x , θ ) | < ∞ 上, ∀ε>0 ∀ ε > 0 ,期望风险和经验风险满足如下不等式:
推论3:在实损失函数集 |Q(x,θ)|<∞ | Q ( x , θ ) | < ∞ 上,统计学习机期望风险与经验风险一致双边收敛的充分条件是:
经将有界实损失函数转化到指示损失函数上的方法,我们找到了在有界实损失函数集期望风险和经验风险双边一致收敛的充分条件。