泛化能力

1.6.1 泛化误差

学习方法的泛化能力(generalization ability) 是指由该方法学习到的模型对未知数据的预测能力, 是学习方法本质上重要的性质, 现实中采用最多的方法是通过测试误差来评价学习方法的泛化能力,但是这种评价是依赖于测试数据集的,因为测试数据集是有限的 ,很有可能由此得到的评价结果是不可靠的,统计学习理论试图从理论上对学习方法的泛化能力进行分析。

首先给出泛化误差的定义, 如果学到的模型是 f^ , 那么用这个模型对未知数据预测的误差即为泛化误差在这里插入图片描述
泛化误差反映了学习方法的泛化能力,如果一种方法学习的模型比另一种方法学习的模型具有更小的泛化误差,那么这种方法就更有效, 事实上,泛化误差就是所学到的模型的期望误差。

1.6.2 泛化误差上界

学习方法的泛化能力分析往往是通过研究泛化误差的概率上界进行的,简称为泛化误差上界(generalization error bound),具体的说,就是通过比较两种学习方法的泛化误差上界的大小来比较它们的优劣, 泛化误差上界通常具有以下性质:

  • 它是样本容量的函数, 当样本容量增加时,泛化上界趋于 0 ;
  • 它是假设空间容量 (capacity)的函数,假设空间容量越大,模型就越难学,泛化误差上界就越大。

下面给出一个简单的泛化误差上界的例子:二类分类问题的泛化误差上界。

考虑二类分类问题。 已知训练数据集 T = {(x1, y1), (x2,y2),……(xN,yN)},它是从联合概率分布 P(X, Y) 独立同分布产生的, X ∈ Rn , Y ∈ {-1 , +1} ,假设空间是函数的有限集合 F = {f1, f2,…… fd } ,d 是函数个数, 设 f 是 F 中选取的函数。 损失函数是 0-1 损失,关于 f 的期望风险和经验风险分别是
在这里插入图片描述
经验风险最小化函数是 在这里插入图片描述
人们更关心 fN 的泛化能力
在这里插入图片描述
下面讨论从有限集合 F = {f1, f2 , …… fd} 中任意选出的函数 f 的泛化误差上界,

定理 1.1 (泛化误差上界) 对二分类问题, 当假设空间是有限个函数的集合 F = {f1, f2, …… fd } 时, 对任意一个函数 f∈ F, 至少以概率 1 - δ,以下不等式成立:
在这里插入图片描述
其中,在这里插入图片描述
不等式 (1.25)左端 R(f) 是泛化误差,右端即为泛化误差上界, 在泛化误差上界中,第1 项是训练误差, 训练误差越小,泛化误差也越小, 第 2 项 ε (d, N, δ )是 N 的单调递减函数 ,当 N (样本容量)趋于无穷时趋于 0 ; 同时它也是√log d 阶的函数, 假设空间 F 包含的函数越多,其值越大。

证明: 在证明中要用到 Hoeffding 不等式, 先叙述如下:
在这里插入图片描述
在这里插入图片描述
其中, ε (d, N, δ )由式(1.26)定义,这就是说,训练误差小的模型,其泛化误差也会小。

以上讨论的只是假设空间包含有限个函数情况泛化误差上界,对一般的假设空间要找到泛化误差界就没有那么简单。

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值