李航 统计学习方法 第一章 课后 习题 答案

本文详细解答了李航《统计学习方法》第一章的习题,涉及统计学习的三要素:模型、策略、算法。解释了伯努利模型、极大似然估计与贝叶斯估计的区别,并举例说明了如何利用极大似然估计和贝叶斯估计估计伯努利试验中参数θ的值。同时,介绍了模型Pθ(Y|X)、对数损失函数及经验风险最小化的概念。
摘要由CSDN通过智能技术生成

####1.1
统计学习方法的三要素是模型、策略、算法。

伯努利模型是定义在取值为0与1的随机变量上的概率分布。

统计学分为两派:经典统计学派和贝叶斯统计学派。两者的不同主要是,经典统计学派认为模型已定,参数未知,参数是固定的,只是还不知道;贝叶斯统计学派是通过观察到的现象对概率分布中的主观认定不断进行修正。

极大似然估计和贝叶斯估计的模型都是伯努利模型也就是条件概率模型;极大似然估计用的是经典统计学派的策略,贝叶斯估计用的是贝叶斯统计学派的策略;为了得到使经验风险最小的参数值,使用的算法都是对经验风险求导,使导数为0.

定义随机变量A为一次伯努利试验的结果,A的取值为 { 0 , 1 } \{0,1\} { 0,1},概率分布为 P ( A ) P(A) P(A)
P ( A = 1 ) = θ P ( A = 0 ) = 1 − θ P(A=1)=\theta \\ P(A=0)=1-\theta P(A=1)=θP(A=0)=1θ

下面分布用极大似然估计和贝叶斯估计来估计 θ \theta θ 的值。

极大似然估计:
L ( θ ) = ∏ i = 1 n P ( A i ) = θ k ( 1 − θ ) n − k L(\theta)=\prod_{i=1}^{n}P(A_i)=\theta^k(1-\theta)^{n-k} L(θ)=i=1nP(Ai)=θk(1θ)nk
A i A_i Ai代表第i次随机试验。
θ = a r g max ⁡ θ L ( θ ) = k n \theta=arg\max \limits_\theta L(\theta)=\frac{k}{n} θ=argθmaxL(θ)=nk

贝叶斯估计:
P ( θ ∣ A 1 , A 2 , . . . , A n ) = P ( A 1 , A 2 , . . . A n ∣ θ ) π ( θ ) P ( A 1 , A 2 , . . . , A n ) P(\theta|A_1,A_2,...,A_n)=\frac{P(A_1,A_2,...A_n|\theta)\pi(\theta)}{P(A_1,A_2,...,A_n)} P(θA1,A2,...,An)=P(A1,A2,...,An)P(A1,A2,...Anθ)π(θ)
根据观察到的结果修正 θ \theta θ,也就是假设 θ \theta θ是随机变量, θ \theta θ服从 β \beta β分布,有很多个可能的取值,我们要取的值时在已知观察结果的条件下使 θ \theta θ出现概率最大的值。上式分母是不变的,求分子最大就可以。

θ = a r g max ⁡ θ P ( A 1 , A 2 , . . . A n ∣ θ ) P ( θ ) = a r g max ⁡ θ ∏ i = 1 n P ( A i ∣ θ ) P ( θ ) = a r g max ⁡ θ θ k ( 1 − θ ) n − k θ a − 1 ( 1 − θ ) b − 1 = k + ( a − 1 ) n + ( a − 1 ) + ( b − 1 ) \begin{align*} \theta &=arg\max \limits_\theta {P(A_1,A_2,...A_n|\theta) P(\theta)} \\ &= arg\max \limits_\theta {\prod_{i=1}^{n}P(A_i|\theta)P(\theta)} \\ &=arg \max \limits_\theta {\theta^k(1-\theta)^{n-k}\theta^{a-1}(1-\theta)^{b-1}} \\ &=\frac{k+(a-1)}{n+(a-1)+(b-1)} \end{align*}

评论 34
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值