统计学习方法
Brielleqqqqqqjie
简单的事做到极致就是成功
展开
-
《统计学习方法》课后习题答案汇总
章节名地址第一章 统计学习方法概论Blog第二章 感知机Blog第三章 K近邻法Blog第四章 朴素贝叶斯法Blog第五章 决策树Blog第六章 逻辑斯蒂回归与最大熵模型第七章 支持向量机Blog第八章 提升方法Blog第九章 EM算法及其推广第十章 隐马尔可夫模型Blog 第十一章 条件随机场...原创 2020-06-04 10:32:29 · 15797 阅读 · 1 评论 -
统计学习方法 第十一章习题答案
文章目录习题11.1习题 11.2习题11.3习题11.4习题11.1写出图11.3中无向图描述的概率图模型的因子分解式。解答P(Y1,Y2,Y3,Y4)=1Zψc1(Y1,Y2,Y3)ψc2(Y2,Y3,Y4)P(Y_1,Y_2,Y_3,Y_4)=\frac{1}{Z} \psi_{c_1}(Y_1,Y_2,Y_3) \psi_{c_2}(Y_2,Y_3,Y_4)P(Y1,Y2,Y3,Y4)=Z1ψc1(Y1,Y2,Y3)ψc2(Y2,Y3,Y4)Z=∑Yψc1(原创 2020-06-07 15:05:21 · 5399 阅读 · 1 评论 -
统计学习方法 第九章习题答案
文章目录习题9.1习题9.2习题9.3习题9.4习题9.1如例9.1的三硬币模型.假设观测数据不变,试选择不同的初值,例如π0=0.46,p0=0.55,q0=0.67\pi^0=0.46, p^0=0.55,q^0=0.67π0=0.46,p0=0.55,q0=0.67求模型参数θ=(π,p,q)\theta=(\pi,p,q)θ=(π,p,q)的极大似然估计。例9.1(三硬币模型)假设有3枚硬币,分别记作A,B,C.这些硬币正面出现的概率分别是π,p和q.进行如下掷硬币试验:先掷硬币A,根据其结果原创 2020-06-05 11:26:33 · 6871 阅读 · 2 评论 -
统计学习方法 第六章习题答案
习题6.1题目:确认逻辑斯谛分布属于指数分布族.答:习题6.2题目:写出逻辑斯谛回归模型学习的梯度下降算法.习题6.3题目:写出最大熵模型学习的DFP算法.(关于一般的DFP算法参见附录B)参考指数分布族...原创 2020-06-04 10:30:40 · 3974 阅读 · 2 评论 -
统计学习方法 第十章习题答案
10.1题目:给定盒子和球组成的隐马尔可夫模型a=(A,B,x),其中,原创 2020-06-02 16:40:34 · 5064 阅读 · 0 评论 -
统计学习方法 第八章习题答案
8.1题目:某公司招聘职员考查身体、业务能力、发展潜力这3项.身体分为合格1、不合格0两级,业务能力和发展潜力分为上1、中2、下3三级.分类为合格1、不合格-1两类.已知10个人的数据,如下表所示.假设弱分类器为决策树桩.试用AdaBoost算法学习一个强分类器.解答:8.2题目:比较支持向量机、AdaBoost、逻辑斯谛回归模型的学习策略与算法.解答:支持向量机 极小化正则化合页损失,软间隔最大化 序列最小最优化(SMO)逻辑斯蒂回归模型 极大对数似然函数,正则化的极大似然估计 改进的原创 2020-05-22 10:21:42 · 9211 阅读 · 3 评论 -
统计学习方法 第七章习题答案
习题7.1题目:比较感知机的对偶形式与线性可分支持向量机的对偶形式.习题7.2题目:已知正例点x1=(1,2)T,x2=(2,3)T,x3=(3,3)Tx_1=(1,2)^{T}, x_2=(2,3)^{T}, x_3=(3,3)^{T}x1=(1,2)T,x2=(2,3)T,x3=(3,3)T,负例点x4=(2,1)T,x5=(3,2)Tx_4=(2,1)^{T}, x_5=(3,2)^{T}x4=(2,1)T,x5=(3,2)T,试求最大间隔分离超平面和分类决策函数,并在图上画出分离原创 2020-05-19 15:16:36 · 11936 阅读 · 1 评论 -
统计学习方法 第五章习题答案
习题5.1题目:根据表5.1所给的训练数据集,利用信息增益比(C4.5算法)生成决策树.答:先计算每个特征的信息增益比,信息增益比gR(D,A)=g(D,A)HA(D)g_{R}(D,A)=\frac{g(D,A)}{H_{A}(D)}gR(D,A)=HA(D)g(D,A)。其中D关于特征A的熵HA(D)=−∑i=1n∣Di∣∣D∣log2∣Di∣∣D∣H_{A}(D)=-\sum...原创 2019-10-08 14:36:59 · 9552 阅读 · 2 评论 -
统计学习方法 第四章习题答案
第4章的习题与习题1.1有些相似,建议两章一起看,关于极大似然估计和贝叶斯估计我在第一章的习题中讲解了,可以先看看第一章的解答。4.1题目:用极大似然估计法推出朴素贝叶斯法中的概率估计公式(4.8)及公式(4.9)。4.8P(Y=ck)=∑i=1NI(yi=ck)N,k=1,2,…,KP\left(Y=c_{k}\right)=\frac{\sum_{i=1}^{N} I\left(y_{...原创 2019-08-16 20:39:38 · 2945 阅读 · 4 评论 -
统计学习方法 第三章习题解答
3.1题目:参照图3.1,在二维空间中给出实例点,画出k为1和2时的k近邻法构成的空间划分,并对其进行比较,体会k值选择与模型复杂度及预测准确率的关系。答:本题的意思我理解蛮久(汗-_-||),简单来讲,将一整块的空间分割成各个区域,每个区域有其标签类别。书中的图(如下)给出的是最近邻也就是k=1的特征空间划分。接下来我详细地解释一下如何划分(小学数学):为了方便说明,只用两种类别,分别...原创 2019-08-01 15:21:48 · 8296 阅读 · 2 评论 -
统计学习方法 第一章习题答案
1.11.2题目:通过经验风险最小化推导极大似然估计。证明模型是条件概率分布,当损失函数是对数损失函数时,经验风险最小化等价于极大似然估计。答:这个结论出自1.3节统计学习三要素介绍经验风险最小化和结构风险最小化中,分别举了两个例子,其一,模型是条件概率分布,当损失函数是对数损失函数时,经验风险最小化等价于极大似然估计。其二,模型是条件概率分布,当损失函数是对数损失函数时,模型复杂度由模型的...原创 2019-08-05 16:42:59 · 13985 阅读 · 1 评论 -
统计学习方法 第二章习题答案
2.1题目:Minsky与Papert指出:感知机因为是线性模型,所以不能表示复杂的函数,如异或(XOR),验证感知机为什么不能表示异或。答:即证明异或逻辑是线性不可分的异或逻辑表x1x_{1}x1x2x_{2}x2ylabel110-1101+1011+1000-1直观观察法:将4个点投射到直角坐标系中直观...原创 2019-07-07 16:12:14 · 4107 阅读 · 1 评论