训练数据的充分性(2):分类器的一致收敛

本文探讨机器学习中,当训练数据足够大时,即使训练误差不为0,也能使训练误差与实际误差无限接近的理论,提供了一种通过训练误差估算实际误差的方法。定理8阐述了这一概念,对于理解模型的有效性和训练数据规模的关系具有重要意义。
摘要由CSDN通过智能技术生成

在上一篇博文中提到,如果训练数据的规模充分大,那么当训练错误为0时,真正错误会趋近于0。这是机器学习训练算法有效性的理论依据。但是,在实际设计模型时,我们很难找到一个分类器,其训练错误为0。为此,本文介绍训练数据充分性的第二个引理。它的结论是当训练数据更大一些时,训练错误与实际错误可以无限接近。这样,我们就可以利用训练错误来估计实际错误了。

定理8. 设 H 是一个分类器集合。令 ϵ δ 是正实数。假设 S 是一个由n个随机实例构成的随机训练集合。每个实例都以分布D从实例空间中独立同分布地获得。那么当

n>12ϵ2ln(|H|+1δ)

时,以概率 >1δ , 有

|errS(h)errD(h)|<ϵ

对所有的 hH 成立。更确切地说:
Pr{ h
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值