前一篇文章,介绍了有界实损失函数下的机器学习ERP原则一致性的充分条件,从无限指示损失函数集推广到了有界实损失函数集。
本文将介绍实无界损失函数集上的一致收敛的条件;同前文,无界实损失函数集记为:
{Q(x;θ)|θ∈Λ}
。
记:
R(θ)=∫RmQ(x,θ)dF(x)
Rexp(X,θ)=1n∑ni=1Q(xi,θ)
X
代表任意一个样本集,有
目标是分析:
无界实损失函数上的大数定理
先讨论实损失函数 ∫Rm|Q(x,θ)|dF(x)=B(θ)≤B<∞ 是有界实函数,从Lebesgue积分角度来看 R(θ) 。
重新表述一下 ∫RmQ(x,θ)dF(x) :
∫RmQ(x,θ)dF(x)=liml→∞1l(∑∞i=1P{Q(x,θ)>il}+∑−∞i=−1P{Q(x,θ)<il})
对于 Rexp(X,θ) ,同样我们有:
1n∑nk=1Q(xk,θ)=liml→∞1l(∑∞i=1v{xk:Q(xk,θ)>il}+∑−∞i=−1v{xk:Q(xk,θ)<il})
定义表达式:
定义事件 Ai:{H(x,θ,i/l)<ε},∀i∈N,l∈N+ .
若对于任意的
∀i∈N,∀l∈N+
都有
Ai
成立,即
supθ∈Λ,i∈NH(x,θ,i/l)<ε
则有:
由上面的讨论可以得知:
事件
{supθ∈Λ,θ∈RH(x,θ,i/l)<ε}
发生蕴含事件
{∣∣∣∫RmQ(x,θ)dF(x)−1n∑nk=1Q(xk,θ)∣∣∣<2εB}
必将发生。
不防假设当 β∗>0 时,下面的表达式 H(x,θ,β∗) 取得上确界:
H(x,θ,β∗)=supθ∈Λ,β∈R∣∣∣P{Q(x,θ)>β}−v{xk:Q(xk,θ)>β}∣∣∣P{|Q(x,θ)|>β}
当然也可以取 β<0 时, H(x,θ,β) 取得上确界,不影响后面的讨论。
根据互补事件概率计算,得到:
其中 0<α=P{|Q(x,θ)|>β∗}≤1,β∗∈R
这样,我们将有界实函数转化到指示损失函数
I(x,θ,β)=1{Q(x,θ)−β}
上,不过增加了一个参数
β
,根据指示损失函数上的结论,得到下面的不等式:
于是有下面的定理:
定理4:在无界实损失函数集 Q(x,θ) 上,函数集满足 ∫Rm|Q(x,θ)|dF(x)=B(θ)≤B<∞ ,存在 0<α≤1 , ∀ε>0 ,期望风险和经验风险满足如下不等式:
推论4:在实损失函数集 |Q(x,θ)| 上,统计学习机期望风险与经验风险一致双边收敛的充分条件是:
经将界实损失函数转化到指示损失函数上的方法,找到了在实损失函数集期望风险和经验风险双边一致收敛的充分条件。