ML基石_7_VC

recap

之前,讨论了 theory of generation,也就是如果 Ein 很小的时候,什么时候可以推至 Eout 也很小。
我们的答案是,如果 mH(N) 在某些地方出现了一线曙光,也就是出现了break point,造成了不能shatter,增长速度达不到 2N 的速度的点,那么它的上限是poly多项式,同时如果N也很大的话,可以确定犯错误的上限在一定程度内。

more on growth function

N>2,K>3 时, mH(N)<=NK1 ,上限是一个多项式。
这里写图片描述

more on VC bound

保证了无论演算法做了任何的选择,都被VC bound所支配,保证挑出来的假设 h 可以使得EinEout
这里写图片描述

VC Definition

the formal name of maximum non-break point

dvc 大1的话,就是break point k。

dvc=mink1

好的 Hset ,一开始是说增长函数有漏出一线曙光,出现break point的点。现在可以说 dvc 有限的假设集就是好的假设集。

这里写图片描述

VC of perceptrons

对于特定的N,shatter的话只举一个例子就可以了,不shatter的话必须保证对于N个点的所有可能分布都不能shatter。

Revisited 2d

这里写图片描述

dvc>=d+1

只需要证明d+1个点的情况下可以shatter。
这里写图片描述

dvc<=d+1

只需证明d+2个点的情况下不可以shatter。
这里写图片描述

linear dependence restricts dichotomy.

physical intuition of VC

d+1 就是d个perceptron的维度。

w就是degree of fredom
物理意义大致是:假设集,做二元分类的话有多少自由度(effective)。
举例子来说,二维的感知器有三个自由度(w0,w1,w2)。

powerfulness of H,可以产生多少个dichonomy。

有多少可以调的旋钮。代表H的自由度。

这里写图片描述

interpreting VC

model越强,vc更高,越能够shatter二分类,需要付出的model complety代价很大。

Ein 做好不一定是最好的选择,可能会付出很大的模型复杂度的代价 Ω

penalty for model complexity

Eout Ein 的差距和 Ω 有关

这里写图片描述

VC message

一般来说,我们考虑 Eout 的容忍上限。

通常,我们希望vc很大,这样的话可以shatter的点很多,假设集的power更强,因此通常可以在 Ein 上取得很好的效果。
但是,当模型的复杂度上升的时候, Eout 的误差上限变大,也就是无法保证测试集外的结果和训练集有同样的高正确率,这样即使训练集内部正确率再高也无用。

因此,需要选择合适的vc,也就是选择合适的假设集,合适的模型复杂度。
这里写图片描述

sample complexity

一般来说,我们希望将犯错的的bound限制在一定的范围内,但是误差限度是提前制定的,这时候便需要考虑样本集的数量的。

样本集数量和bound的变化趋势如下图所示,因为这个bound的过程中有很多上限化简,因此理论的和实际的有所差异。
这里写图片描述

looseness of VC bound

理论和实际的差异如下。

有差异也不一定坏啊,这种差异是建立在模型泛化的基础上,从而可以使VC bound的适用条件变宽。

对于之后学习的模型,甚至可以用vc去比较。
这里写图片描述

summary

这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值