【斯坦福---机器学习】复习笔记之特征选择

本文探讨了机器学习中的VC维概念,解释了如何确定VC维以及其在一致收敛性上的作用。此外,还详细介绍了模型选择,特别是交叉验证的方法,如保留交叉验证、k-fold交叉验证和留一交叉验证,以及特征选择的重要性,提到了向前搜索和向后搜索等策略。
摘要由CSDN通过智能技术生成

本讲大纲:

1.VC维(VC dimension)
2.模型选择(model selection)
—交叉验证(cross validation)
—特征选择(feature selection)

1.VC维

给定猜想类这里写图片描述,定义VC维(Vapnik-Chervonenkis dimension),记作VC(H),表示能够被这里写图片描述分开的最大集合的尺寸(如果这里写图片描述能够分开任意大的集合,那么这里写图片描述).

例如,考虑下面几个的三个点:
这里写图片描述
在二维中线性分类器能够把它们分开吗(这里写图片描述这里写图片描述)?显然是可以的. 事实上,任意这些点可能的八种标签情况,我们都能找到“零训练误差”的线性分类器.
这里写图片描述
但是,这个猜想不能分开四个点的集合,因此VC(H)=3.
注意,即使可能有大小为3的集合不能被分开,VC维依然为3. 例如,三个点在同一条线上时(左图),那么没有办法找到线性分隔器(右图).

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值