《统计学习方法》笔记(1):重要概念



最近读李航博士的《统计学习方法》,获益良多。开篇李博士着重于基本概念和整体体系的介绍,本文仅就我自己的理解将个人认为重要的内容记述如下。

 

1、什么是监督学习和非监督学习?

就感性认知而言,分类、回归都是监督学习,聚类是非监督学习。

借用知乎上@王丰的回答,是否有监督(supervised),就看输入数据是否有标签(label)。输入数据有标签,则为有监督学习,没标签则为无监督学习。

 

2、如何选择监督学习的模型?

其实也就是我们如何从一组模型中挑选最优的那一个。用奥卡姆剃刀原理来解释会比较简明:在所有能够解释已知数据的模型中,应当选择相对简单的那个模型。

如果做更加学术化的解释,就需要先理解损失函数和风险函数的概念。损失函数度量模型一次预测结果的好坏,可用表示,常用的损失函数有等;风险函数度量平均意义下预测结果的好坏,可用表示。

经验风险最小化和结构风险最小化。一般情况下,风险函数中的P(x,y)未知,因此常用经验风险度量预测结果的好坏,公式如下。


结构风险公式如下。之所以用到结构风险,就是不仅要考虑模型对已知数据的预测准确度,还要考虑模型的复杂度J(f)。实际应用中,我们不仅希望模型能够解释数据,还需要模型足够简单,在二者间寻求平衡。


 

3、什么是过拟合

上一个问题中,为什么不仅要模型能够解释已知数据,还需要模型足够简单呢?因为如果不够简单,就可能出现过拟合,也就是模型可能非常好的解释了训练集样本,但对测试集样本的预测效果却非常差。

过拟合模型的维度一般高于实际模型。可以这样来理解,假设有三个样本点(x1,y1)、(x2,y2)、(x3,y3),实际模型为线性模型y=ax+b,当然预测结果和真实值间有小幅偏差;此时如果用更高维度的模型y=mx2+nx+h进行拟合,预测结果和真实值可以完全一致(三个点确定三个参数mnh)。这时,如果再来一个按照线性模型分布的点(x4,y4),则线性模型能够很好的预测,而高维模型则由于“过拟合”无法正确预测。

 

4、如何避免过拟合

避免过拟合的方法主要有正则化和交叉验证两种方法。

正则化是问题2中结构风险最小化的实现,由于存在正则化项(表征模型复杂度),可以有效避免生成过于复杂的模型。正则化可以取不同形式,例如回归问题中,损失函数是平方损失,正则化项是参数向量的二范数。


交叉验证在实际中可能用得更多,其中最常用的又称K折交叉验证。以10折交叉验证为例,每次训练使用90%的数据样本,用剩余的10%样本进行验证并计算正确率;循环的将10个样本用作测试样本,即可求得10次交叉验证的正确率均值,也就是10折交叉验证的正确率。一般选用交叉验证正确率最高的模型。

 

5、什么是生成方法和判别方法?

所谓生成方法,是指根据联合概率分布P(X,Y)计算目标函数y=f(x)或者条件概率P(Y|X)的模型,也就是先知道联合概率分布,再建立目标模型;例如朴素贝叶斯法和隐马尔科夫法。

所谓判别方法,是直接学习和计算目标函数y=f(x)或者条件概率P(Y|X)的模型,简化了学习问题。例如k近邻、决策树、逻辑斯谛回归、SVM等。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值