李航统计学习方法笔记——泛化误差上界

本文详细解析了李航《统计学习方法》中关于泛化误差上界的定理,介绍了期望风险与经验风险的关系,探讨了样本数量、假设空间大小和置信度对泛化误差的影响。通过Hoeffding不等式推导了泛化误差上界公式,证明了机器学习的可行性和有效性。
摘要由CSDN通过智能技术生成

泛化误差上界

References

统计学习方法(第2版)李航著 p25~27

定理

对于二分类问题,当假设空间是有限个函数的集合 F = { f 1 , f 2 , . . . , f d } F=\{f_1,f_2,...,f_d\} F={ f1,f2,...,fd}时,对任意一个函数 f ∈ F f\in F fF,至少以概率 1 − δ 1-\delta 1δ 0 < δ < 1 0<\delta<1 0<δ<1,以下不等式成立: R ( f ) ≤ R ^ ( f ) + ε ( d , N , δ ) R(f)\leq \hat{R}(f)+\varepsilon(d,N,\delta) R(f)R^(f)+ε(d,N,δ)其中, ε ( d , N , δ ) = 1 2 N ( log ⁡ d + log ⁡ 1 δ ) \varepsilon(d,N,\delta)=\sqrt{\frac{1}{2N}(\log{d}+\log{\frac{1}{\delta}})} ε(d,N,δ)=2N1(logd+logδ1)

前置知识

关于 f f f的期望风险: R ( f ) = E [ L ( Y , f ( X ) ) ] R(f)=E[L(Y,f(X))] R(f)=E[L(Y,f(X))]经验风险: R ^ ( f ) = 1 N ∑ i = 1 N L ( y i , f ( x i ) ) \hat{R}(f)=\frac{1}{N}\sum_{i=1}^NL(y_i,f(x_i)) R^(f)=N1i=1NL(yi,f(xi))其中, L L L是损失函数。

个人理解

首先,看定理的名字“泛化误差上界”。泛化误差指的是模型 f f f对未知数据预测的误差,大白话来说就是测试集上的cost。事实上,泛化误差就是期望风险 R ( f ) R(f)

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值