斯坦福CS229(吴恩达授)学习笔记(6)

这篇笔记探讨了斯坦福大学CS229课程中关于核函数、支持向量机和一致收敛的问题。重点在于理解如何为经验风险最小化的上界找到更精确的估计,尤其是在存在使得误差为0的假设时。笔记解释了如何证明当m足够大时,可以找到一个假设h^,其在训练集外的误差ε(h^)小于m1logδk。
摘要由CSDN通过智能技术生成

说明

此笔记 是cs229-notes4讲义中的学习内容,与B站上的“09 经验风险最小化”视频对应,主要是该部分对应的习题解答。
课程相关视频、讲义等资料可参照《斯坦福CS229(吴恩达授)学习笔记(1)》 获取。

正文

Problem Set #2: Kernels, SVMs, and Theory

5. Uniform convergence

解答:
问题是说,如果有先验知识得知 H \mathcal{H} H中存在使得 m i n i ε ( h i ) = 0 min_i\varepsilon(h_i)=0 miniε(hi)=0 h i h_i hi,那么是可以给 ε ( h ^ ) \varepsilon(\hat h) ε(h^)求得一个比 2 1 2 m l o g 2 k δ 2\sqrt{\frac{1}{2m}log\frac{2k}{\delta}} 22m1logδ2k 更小的上界,即 1 m l o g k δ \frac{1}{m}log\frac{k}{\delta} m1logδk
可证明 1 m l o g k δ ≤ 2 1 2 m l o g 2 k δ \frac{1}{m}log\frac{k}{\delta}\leq2\sqrt{\frac{1}{2m}log\frac{2k}{\delta}} m1logδk22m1logδ2k
1 m l o g k δ 2 1 2 m l o g 2 k δ = 1 m 2 ( l o g k δ ) 2 4 2 m l o g 2 k δ = ( l o g k δ ) l o g k δ 2 m ( l o g k δ + l o g 2 ) = l o g k δ 2 m ( 1 + l o g 2 l o g k δ ) \begin{aligned} \frac{\frac{1}{m}log\frac{k}{\delta}}{2\sqrt{\frac{1}{2m}log\frac{2k}{\delta}}}=&\sqrt{\frac{\frac{1}{m^2}(log\frac{k}{\delta})^2}{\frac{4}{2m}log\frac{2k}{\delta}}}=\sqrt{\frac{(log\frac{k}{\delta})log\frac{k}{\delta}}{2m(log\frac{k}{\delta}+log2)}}=\sqrt{\frac{log\frac{k}{\delta}}{2m(1+\frac{log2}{log\frac{k}{\delta}})}} \end{aligned} 22m1logδ2k

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值