《统计学习方法》第一章统计学习方法概论笔记

1.统计学习三要素:模型、策略、算法
1)模型:概率模型(由条件概率表示的模型)与非概率模型(由决策函数表示的模型)
2)策略
2.1)损失函数与风险函数
在这里插入图片描述
2.2)期望损失函数(期望风险函数)与经验风险函数
期望风险函数:模型关于联合分布的期望损失:
在这里插入图片描述
经验风险函数:模型关于训练样本集的平均损失:
在这里插入图片描述
2.3)经验风险最小化与结构风险最小化
经验风险最小化的策略认为:经验风险最小的模型就是最优的模型.即:
在这里插入图片描述
结构风险最小化是为了防止过拟合而提出的策略.结构风险最小化等价于正则化.结构风险最小化在经验上加上表示模型复杂度的正则化项或罚项.在假设空间、损失函数以及训练数据集确定的情况下,结构风险的定义是:
在这里插入图片描述
其中J(f)为模型的复杂度,模型越复杂,J(f)越大.
λ>=0是系数,用以权衡经验风险和模型复杂度.
结构风险最小化的策略认为:结构风险最小的模型就是最优的模型.即:
在这里插入图片描述
3)算法
算法是指学习模型的具体计算方法.比如如何找到最优解的算法.

2.模型评估与模型选择
1)训练误差与测试误差
训练误差是模型关于训练数据集的平均损失,其中L函数中的两个参数分别是训练集样本实际输出值、训练集模型预测值:
在这里插入图片描述
测试误差是模型关于测试数据集的平均损失,其中L函数中的两个参数分别是测试集样本实际输出值、测试集模型预测值:
在这里插入图片描述
2)过拟合与模型选择
在这里插入图片描述
3.正则化与交叉验证
1)正则化
在这里插入图片描述
注:第一项是经验风险,第二项是正则化项,λ>=0为调整两者之间关系的系数.

L1范数正则化项:
在这里插入图片描述
L2范数正则化项:
在这里插入图片描述
注:正则化项的作用是选择经验风险(第1项)与模型复杂度(第2项)同时小的模型.
奥卡姆剃刀应用于模型选择思想:在所有可能选择的模型中,能够很好的解释已知数据并且十分简单才是最好的模型.

2)交叉验证
若给定的样本数据充足,进行模型选择的简单方法是随机将数据切分为三部分:训练集、验证集、测试集.训练集用来训练数据,验证集用于模型的选择,测试集用于最终对学习方法的评估.
但许多实际应用中数据不充足,所以为了选择更好的模型,使用交叉验证的方式.基本思想是:重复的使用数据,把给定的数据进行切分,将切分的数据集组合为训练集和测试集,在此基础上进行反复训练、测试以及模型选择.
2.1)简单交叉验证
在这里插入图片描述
2.2)S折交叉验证
在这里插入图片描述
2.3)留一交叉验证
在这里插入图片描述

4.泛化能力
学习方法的泛化能力:由该方法学习到的模型对未知数据的预测能力.
泛化误差:
在这里插入图片描述
1)泛化误差上界
泛化误差上界:学习方法的泛化能力分析往往是通过研究泛化误差的概率上界进行的.具体来说,就是比较两种学习方法的泛化误差上界的大小来比较它们的优劣.

2)泛化误差上界性质:
它是样本容量的函数,当样本容量增加时,泛化上界趋于0
(样本容量多,模型就越精确,误差也就越少);
它是假设空间容量的函数,假设空间容量越大,模型就越难学,泛化误差上界就越大(假设空间为可能的函数构成的空间).
在这里插入图片描述

5.生成模型与判别模型
1)生成模型
在这里插入图片描述
这样的方法之所以称为生成方法,是因为模型表示了给定输入X产生输出Y的生成关系.典型的生成模型有:朴素贝叶斯法和隐马尔可夫模型.

2)判别模型
由数据直接学习决策函数f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型.判别方法关心的是对给定的输入X,应该预测什么样的输出Y.典型的判别模型包括:k近邻法、感知机、决策树、逻辑斯谛回归模型、最大墒模型、支持向量机、提升方法和条件随机场等.

3)生成方法和判别方法的特点
在这里插入图片描述

6.分类问题
1)精确率(准不准)与召回率(全不全)
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值