【李航统计学习】第 1 章 统计学习方法概论 笔记

1. 监督学习(Supervised learning)

1.1 监督学习的实现步骤:

  • 得到一个有限的训练数据集合
  • 确定模型的假设空间,也就是所有的备选模型
  • 确定模型选择的准则,即学习的策略
  • 实现求解最优模型的算法
  • 通过学习方法选择最优模型
  • 利用学习的最优模型对新数据进行预测或分析

在这里插入图片描述

1.2 训练集

T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ( x N , y N ) } T=\lbrace (x_1,y_1),(x_2,y_2),(x_N,y_N) \rbrace T={(x1,y1),(x2,y2),(xN,yN)}

1.3 实例 x x x 的特征向量

x = ( x ( 1 ) , x ( 2 ) , . . . , x ( n ) ) T x=(x^{(1)},x^{(2)},...,x^{(n)})^T x=(x(1),x(2),...,x(n))T

1.4 模型

  • 决策函数 Y = f ( X ) \quad Y=f(X) Y=f(X)
    预测形式 y = f ( x ) \quad y=f(x) y=f(x)
  • 条件概率分布 P ( Y ∣ X ) \quad P(Y|X) P(YX)
    预测形式 a r g m a x P ( y ∣ x ) \quad argmaxP(y|x) argmaxP(yx)

2. 统计学习三要素(Element of statistical learning)

  • 模型(假设空间)
    • 决策函数
      F = { f ∣ Y = f θ ( X ) , θ ∈ R n } F=\lbrace f|Y=f_\theta(X),\theta\in R^n \rbrace F={fY=fθ(X),θRn}
    • 条件概率分布
      F = { P ∣ P θ ( Y ∣ X ) , θ ∈ R n } F=\lbrace P|P_\theta(Y|X),\theta\in R^n \rbrace F={PPθ(YX),θRn}
  • 策略
    • 0 - 1 损失函数
      L ( Y , f ( X ) ) = { 1 , Y ≠ f ( X ) 0 , Y = f ( X ) L(Y,f(X))=\begin{cases} 1,Y\neq f(X)\\ 0,Y= f(X)\end{cases} L(Y,f(X))={1,Y=f(X)0,Y=f(X)
    • 平方损失函数
      L ( Y , f ( X ) ) = ( Y − f ( X ) ) 2 L(Y,f(X))=(Y-f(X))^2 L(Y,f(X))=(Yf(X))2
    • 绝对损失函数
      L ( Y , f ( X ) ) = ∣ Y − f ( X ) ∣ L(Y,f(X))=|Y-f(X)| L(Y,f(X))=Yf(X)
    • 对数损失函数
      L ( Y , P ( Y ∣ X ) ) = − l o g P ( Y ∣ X ) L(Y,P(Y|X))=-logP(Y|X) L(Y,P(YX))=logP(YX)
    • 经验风险最小化
      m i n f ∈ F 1 N ∑ i = 1 n L ( y i , f ( x i ) ) \underset {f \in F}{min} \frac{1}{N}\sum_{i=1}^nL(y_i,f(x_i)) fFminN1i=1nL(yi,f(xi))
    • 结构风险最小化
      m i n f ∈ F 1 N ∑ i = 1 n L ( y i , f ( x i ) ) + λ J ( f ) \underset {f \in F}{min} \frac{1}{N}\sum_{i=1}^nL(y_i,f(x_i))+\lambda J(f) fFminN1i=1nL(yi,f(xi))+λJ(f)
  • 算法
    挑选一个合适的算法,使得可以求解最优模型

3. 模型评估与选择

  • 训练误差 1 N ∑ i = 1 N L ( y i , f ^ ( x i ) ) \frac{1}{N}\sum_{i=1}^NL(y_i,\widehat f(x_i)) N1i=1NL(yi,f (xi))
  • 测试误差 1 N ′ ∑ i = 1 N ′ L ( y i , f ^ ( x i ) ) \frac{1}{N'}\sum_{i=1}^{N'}L(y_i,\widehat f(x_i)) N1i=1NL(yi,f (xi))

4. 多项式拟合问题

在这里插入图片描述

5. 正则化与交叉验证

  • 最小化结构风险
    1 N ∑ i = 1 N L ( y i , f ( x i ) ) + λ J ( f ) \frac{1}{N}\sum_{i=1}^NL(y_i,f(x_i))+\lambda J(f) N1i=1NL(yi,f(xi))+λJ(f)
  • 交叉验证
    数据集随机划分为以下三部分,
    训练集:模型的训练
    测试集:模型的选择
    验证集:模型的评估

6. 泛化能力(Generalization ability)

  • 定理 1.1 泛化误差上界
    对于二分类问题,当假设空间是有限个函数的集合 F = { f 1 , f 2 , . . . , f d } F=\lbrace f_1,f_2,...,f_d \rbrace F={f1,f2,...,fd} 时,对任意一个函数 f ∈ F f\in F fF,至少以概率 1 − δ 1-\delta 1δ,以下不等式成立:
    R ( f ) ≤ R ^ ( f ) + ϵ ( d , N , δ ) R(f)\leq \widehat R(f)+\epsilon(d,N,\delta) R(f)R (f)+ϵ(d,N,δ)
    其中, ϵ ( d , N , δ ) = 1 2 N ( l o g d + l o g 1 δ ) \epsilon(d,N,\delta)=\sqrt {\frac{1}{2N}(logd+log\frac{1}{\delta})} ϵ(d,N,δ)=2N1(logd+logδ1)

7. 生成模型与判别模型(Generative model and discriminant model)

  • 生成方法:
    P ( Y ∣ X ) = P ( X , Y ) P ( X ) P(Y|X)=\frac{P(X,Y)}{P(X)} P(YX)=P(X)P(X,Y)
  • 判别方法
    f ( X ) 或 P ( Y ∣ X ) f(X)或P(Y|X) f(X)P(YX)

8. 分类问题(Classification)

  • TP - 将正类预测为正类数
  • FN - 将负类预测为负类数
  • FP - 将负类预测为正类数
  • TN - 将负类预测为负类数

精确率:预测为正类的样本中有多少被分对了
P = T P T P + F P P=\frac{TP}{TP+FP} P=TP+FPTP
召回率:在实际正类中,有多少正类被模型发现了
R = T P T P + F N R=\frac{TP}{TP+FN} R=TP+FNTP
F1 值
2 F 1 = 1 P + 1 R \frac{2}{F_1}=\frac{1}{P}+\frac{1}{R} F12=P1+R1

F 1 = 2 T P 2 T P + F P + F N F_1=\frac{2TP}{2TP+FP+FN} F1=2TP+FP+FN2TP

9. 标注问题(Tagging)

输入
x = ( x ( 1 ) , x ( 2 ) , . . . , x ( n ) ) T x=(x^{(1)},x^{(2)},...,x^{(n)})^T x=(x(1),x(2),...,x(n))T
输出
y = ( y ( 1 ) , y ( 2 ) , . . . , y ( n ) ) T y=(y^{(1)},y^{(2)},...,y^{(n)})^T y=(y(1),y(2),...,y(n))T

10. 回归问题(Regression)

总结(Summarization):

  1. 统计学习路线:设计模型 -> 训练 -> 预测
  2. 监督学习与非监督学习的联系区别
  3. 统计学习三要素:模型、策略、算法
  4. 模型的评估:训练误差、验证误差、测试误差
  5. 正则化与交叉验证
  6. 泛化能力:泛化误差上界
  7. 生成模型与判别模型的联系与区别
  8. 分类问题:准确率、精确率、召回率、F1 值
  9. 标注问题:序列标注
  10. 回归问题:输出为连续值
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
李航的《统计学习方法》是一本经典的统计学习教材,其中涵盖了统计学习的基本理论和方法。该书主要介绍了统计学习的三要素:模型、策略和算法。引用提到,训练集用来训练模型,验证集用来选择模型,测试集用于对学习方法的评估。这些三要素是统计学习方法的基础。引用进一步解释了统计学习的目标,即通过构建概率统计模型对数据进行准确的预测与分析,并提高学习效率。引用提到了一种常用的统计学习方法,即提升(boosting),它通过改变训练样本的权重,学习多个弱分类器,并将它们线性组合成一个强分类器,以提高分类的性能。 总结起来,李航的《统计学习方法笔记主要围绕统计学习的基本理论和方法展开,介绍了统计学习的三要素、目标和提升等常用方法。这本书对于学习统计学习的人来说是一本非常有价值的参考资料。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [统计学习方法——李航 笔记](https://blog.csdn.net/qq_45383347/article/details/110482540)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [李航统计学习方法学习笔记](https://blog.csdn.net/liuzuoping/article/details/98840923)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值