统计学习理论简介(二)

统计学习理论作为机器学习的基础,本文主要对统计学习理论进行简要介绍

Excess Risk Decomposition

上篇文章说到,对于hypothesis space F \mathcal F F f F = a r g m i n f ∈ F E ( x , y ) ∼ P X × Y [ l ( f ( x ) , y ) ] f_{\mathcal F}=argmin_{f\in \mathcal F}E_{(x,y)\sim P_{\mathcal X\times\mathcal Y}}[l(f(x), y)] fF=argminfFE(x,y)PX×Y[l(f(x),y)] f ^ n = a r g m i n f ∈ F 1 n Σ i = 1 n l ( f ( x i ) , y i ) \hat f_n = argmin_{f\in \mathcal F}\frac{1}{n}\Sigma_{i=1}^nl(f(x_i), y_i) f^n=argminfFn1Σi=1nl(f(xi),yi)

f F f_{\mathcal F} fF f ∗ f^* f的risk的差距叫做approximation error f ^ n \hat f_n f^n f F f_{\mathcal F} fF的risk的差距叫做estimation error f ^ n \hat f_n f^n f ∗ f^* f的risk差距叫做excess risk,可以被分解为approximation error与estimation error的和。

但是实际上,我们一定能找到 f ^ n \hat f_n f^n吗,我们的优化方法并不一定能找到 f ^ n \hat f_n f^n,所以我们往往得到的是次优解 f ~ n \tilde f_n f~n f ~ n \tilde f_n f~n f ^ n \hat f_n f^n的risk的差距叫做optimization error

参考资料:NYU 《Deep Learning》2020

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值