林轩田机器学习基石笔记(第27节)——VC Dimension of Perceptrons

一、复习2D PLA算法

如下图所示,左边红色部分表示如果数据集 D D 是线性可分的情况下,PLA算法最终会停下来,我们会得到一条能够把所有数据都二分为两类的线段,该线段能够保证在已知的数据上犯错的概率为0,即Ein(g)=0
图中右边部分,则通过霍夫丁不等式从侧面证明了如果我们数据量够大,并且 dVC d V C 已知的情况下,我们可以保证 Ein(g)Eout(g) E i n ( g ) ≈ E o u t ( g )
左边和右边相互结合起来,我们推出了 Eout0 E o u t ≈ 0 。这正是我们前面所有课程苦苦证明的结果。
这里写图片描述

二、d维度二元分类的VC Dimension会不会是 dVC=d+1 d V C = d + 1 ?

我们已经知道1D Perceptrons的 dVC=2 d V C = 2 ,2D Perceptrons的 dVC=3 d V C = 3 ,那么d维Perceptrons的VC Dimension是多少呢?如下图:
这里写图片描述

观察1D和2D,我们发现 dVC d V C 似乎总是等于维数d加1,即 dVC=d+1 d V C = d + 1 。那么是否这就意味着所有的VC Dimension都是如此呢?沿着这一猜想,我们只需要证明 d+1dVCd+1 d + 1 ≤ d V C ≤ d + 1 就可以间接证明 dVC=d+1 d V C = d + 1

在进入正式的证明之前,我们先来复习一下矩阵的相关知识,因为接下来要用到。
矩阵的加法
矩阵的减法
矩阵乘以常数
矩阵乘以矩阵
单位矩阵
这里写图片描述
逆矩阵的意义

这一节接下来的内容都是证明d维上的VC Dimension都是 d+1 d + 1 ,具体的证明过程我不甚了解,我这边只要记录结果就好了,以后有机会再回来看吧,要不然要卡在这里无法继续往下学习了,实在是太难。

===========================懵逼分割线===========================

欢迎大家加入Q群讨论:463255841

===========================懵逼分割线===========================

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值