统计学习方法 课后题1

第一章
这里写图片描述
统计学习方法三要素:模型、策略、算法。
模型

  • 概率模型
  • 伯努利模型 : 定义在取值为0,1的随机变量上的概率分布(条件概率分布)

  • 0-1分布
    p(x)=θx(1θ)1x p ( x ) = θ x ( 1 − θ ) 1 − x ,随机变量 x x 只取0,1两个值

  • 二项分布
    pn(k)=Cnkθk(1θ)nk ,表示 x=1 x = 1 发生 k k 次的概率, θ 表示每一次实验 x=1 x = 1 的概率

  • 经验风险:
    Remp=1Ni=1N(L(xi,f(xi))) R e m p = 1 N ∑ i = 1 N ( L ( x i , f ( x i ) ) )
  • 结构风险:
    Rsrm=1Ni=1N(L(xi,f(xi)))+λJ(f) R s r m = 1 N ∑ i = 1 N ( L ( x i , f ( x i ) ) ) + λ J ( f )

策略

  • 极大似然:经验风险最小化。
    模型为条件概率分布,损失函数为对数损失函数时,经验风险最小化等价于极大似然估计。
  • 贝叶斯估计:结构风险最小化。
    模型为条件概率分布,损失函数为对数损失函数,模型复杂度由模型先验概率表示时,结构风险最小化等价于最大后验概率估计。

算法

  • 极大似然估计:最大化似然函数,求取能使似然函数最大的值
  • 贝叶斯估计:最大后验概率估计,求取能使其后验分布最大的值

假设随机变量 Ai A i (独立同分布)表示第 i i 次试验:

p(Ai=1)=θ,p(Ai=0)=1θ

  • 极大似然估计
    似然函数: L(θ)=ni=1p(Ai)=θk(1θ)nk L ( θ ) = ∏ i = 1 n p ( A i ) = θ k ( 1 − θ ) n − k

    argmaxθlog(L(θ))=argmaxθlog(θk(1θ)nk)=argmaxθ(klogθ+(nk)log(1θ))(53)(54) (53) arg ⁡ max θ ⁡ l o g ( L ( θ ) ) = arg ⁡ max θ ⁡ l o g ( θ k ( 1 − θ ) n − k ) (54) = arg ⁡ max θ ⁡ ( k log ⁡ θ + ( n − k ) log ⁡ ( 1 − θ ) )

    θ θ 求偏导,令等式为0,可得,
    kθnk1θ=0 k θ − n − k 1 − θ = 0

    解得 θ=kn θ = k n

  • 贝叶斯估计
    最大后验概率估计 p(θ|A1,A2...An) p ( θ | A 1 , A 2 . . . A n ) , θ θ 为随机变量, p(θ) p ( θ ) 为模型先验概率服从β分布 β(θ;a,b)=θa1(1θ)b1C β ( θ ; a , b ) = θ a − 1 ( 1 − θ ) b − 1 C , C C 为常数,β分布是伯努利分布的共轭先验分布

    (55)p(θ|A1,A2...An)=p(A1,A2...An|θ)p(θ)p(A1,A2...An)(56)p(A1,A2...An|θ)p(θ)(57)=i=1np(Ai|θ)p(θ)(58)=θk(1θ)nkθa1(1θ)b1(59)=θa1+k(1θb1+nk

argmaxθp(θ|A1,A2...An)argmaxθθa1+k(1θb1+nk arg ⁡ max θ ⁡ p ( θ | A 1 , A 2 . . . A n ) ⇔ arg ⁡ max θ ⁡ θ a − 1 + k ( 1 − θ ) b − 1 + n − k

对等式右边取对数,求偏导,令等式为0,可得
θ=a1+kn+(a1)+(b1) θ = a − 1 + k n + ( a − 1 ) + ( b − 1 )

其中, a,b a , b 的取值

这里写图片描述
β β 分布概率密度函数

这里写图片描述

  • 条件概率分布: P(Y|X) P ( Y | X )
  • 损失函数: L(Y,P(Y|X))=logP(Y|X) L ( Y , P ( Y | X ) ) = − log ⁡ P ( Y | X )
  • 似然函数: L(θ)=ni=1p(yi|xi,θ) L ( θ ) = ∏ i = 1 n p ( y i | x i , θ )
  • 经验风险最小化:
    minθRemp=minθ1ni=1nL(yi,p(yi|xi,θ))=minθ1ni=1n(log(p(yi|xi,θ))=minθ1ni=1nlogp(yi|xi,θ)maxθ1ni=1nlogp(yi|xi,θ)=maxθ1nlog(i=1np(yi|xi,θ))maxθL(θ)(60)(61)(62)(63)(64)(65) (60) min θ R e m p = min θ 1 n ∑ i = 1 n L ( y i , p ( y i | x i , θ ) ) (61) = min θ 1 n ∑ i = 1 n ( − l o g ( p ( y i | x i , θ ) ) (62) = min θ − 1 n ∑ i = 1 n l o g p ( y i | x i , θ ) (63) ⇔ max θ 1 n ∑ i = 1 n l o g p ( y i | x i , θ ) (64) = max θ 1 n l o g ( ∏ i = 1 n p ( y i | x i , θ ) ) (65) ⇔ max θ L ( θ )
csdn李航的《统计学习方法》课程是一门深入浅出的机器学习课程。这门课程围绕着统计学习的基本原理和方法展开,结合了理论与实践,为学习者提供了全面的知识体系。 首先,课程的内容主要涵盖了统计学习的基本概念、模型和算法。通过对统计学习的基本概念的讲解,学习者可以获得对机器学习的整体认识和理解。课程对于各种常见的统计学习模型如线性模型、神经网络、决策树等进行了详细的介绍,并深入剖析了这些模型的原理和应用场景。此外,通过对常见的统计学习算法如最小二乘法、梯度下降法、支持向量机等的讲解,学习者可以了解到如何实现和优化这些模型。 其次,课程提供了大量的实例来帮助学习者加深对知识的理解。课程中会给出典型的统计学习,并针对这些问提供解决方案。这些实例可以帮助学习者更好地掌握课程内容,同时提供了实践机会,让学习者将理论知识应用到实际问中。 最后,课后还提供了相关的习和参考答案,学习者可以通过做来巩固所学知识,同时参考答案可以帮助学习者在做过程中发现和纠正错误,提高学习效果。 总的来说,csdn李航的《统计学习方法课后是一门内容全面、难度适中的机器学习课程。通过学习这门课程,学习者可以系统地掌握统计学习的基本原理和方法,为日后的机器学习实践打下坚实的基础。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值