孙仕亮模式识别与机器学习1008第二堂课

第二堂课PPT链接: https://pan.baidu.com/s/10E4jQg_bOuUI18FgMPadJQ 提取码: qw5i
第二堂课PDF链接: https://pan.baidu.com/s/1WsoTQmpUS-aU6Mu_GBh29Q 提取码: a6xi

笔记


在这里插入图片描述

知识点整理

1、交叉验证(Cross Validation):是用来验证分类器的性能一种统计分析方法,基本思想是把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集(training set),另一部分做为验证集(validation set),首先用训练集对分类器进行训练,在利用验证集来测试训练得到的模型(model),以此来做为评价分类器的性能指标。

2、留一法(leave one out):(1)、将全部训练集 S分成 k个不相交的子集,假设 S中的训练样例个数为 m,那么每一个子 集有 m k \frac{m}{k} km个训练样例,,相应的子集称作{ s 1 , s 2 , . . . . . . s k s_1, s_2, ......s_k s1,s2,......sk}。(2)、每次从分好的子集中里面,拿出一个作为测试集,其它k-1个作为训练集。(3)、根据训练训练出模型或者假设函数。(4)、把这个模型放到测试集上,得到分类率。(5)、计算k次求得的分类率的平均值,作为该模型或者假设函数的真实分类率。
  这个方法充分利用了所有样本。但计算比较繁琐,需要训练k次,测试k次。留一法就是每次只留下一个样本做测试集,其它样本做训练集,如果有k个样本,则需要训练k次,测试k次。

3、维数灾难:https://blog.csdn.net/zbc1090549839/article/details/38929215博主写的简单明了。

4、决策论:如何做决策(1)最小化错误率。(不考虑代价)(2)最小化期望损失。

5、正态分布:公式 f ( x ) = 1 ( 2 π )

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值