第一周:ML简介、ML与DM/AI/Statistics的区别
第二周:perceptron线性分类器
第三周:从输入特征、输出空间、label状况、学习方式四方面对ML进行分类
第四周:PAC学习原理(尽量大的训练集D和有限的假设空间H)
第五-七周:'Shatter' and VC Dimension(打散和VC维度)(无限假设空间,但可以分为有限个不同类别的空间,即VC Dimension有限,D尽量大,则学到的model可以较好泛化到测试集)
百度百科:
VC维(Vapnik-Chervonenkis Dimension)的概念是为了研究学习过程
一致收敛的速度和推广性,由统计学理论定义的有关函数集学习性能的一个重要指标。
传统的定义是:对一个指示函数集,如果存在H个样本能够被函数集中的函数按所有可能的2的H次方种形式分开,则称函数集能够把H个样本打散;函数集的VC维就是它能打散的最大样本数目H。若对任意数目的样本都有函数能将它们打散,则函数集的VC维是无穷大,