周志华西瓜书《机器学习》习题提示——第10章

文章探讨了决策树与k近邻分类器的边界特性,解释了贝叶斯最优分类器的误差关系,并介绍了线性降维方法如PCA和KPCA。此外,还讨论了流形学习中的局部线性嵌入(LLE)算法及其在新样本降维中的应用,以及度量学习中如何将欧氏距离推广为马氏距离。
摘要由CSDN通过智能技术生成

习题提示

10.1:
决策树分类的边界是折线【西瓜书图4.11】,且形成凸形,而 k k k近邻分类通常边界不清晰甚至没有边界。

10.2:
本题以 e r r err err表示【西瓜书(10.2)】中的 P ( e r r ) P(err) P(err),贝叶斯最优分类器: c ∗ = arg ⁡ max ⁡ c P ( c ∣ x ) c^*=\mathop{\arg\max}\limits_cP(c|\boldsymbol{x}) c=cargmaxP(cx),则有:
P ( c ∗ ∣ x ) ⩾ P ( c ∣ x ) e r r ∗ = 1 − P ( c ∗ ∣ x ) e r r = 1 − P ( c ∣ x ) \begin{align} P(c^*|\boldsymbol{x})\geqslant P(c|\boldsymbol{x}) \tag{1}\\ err*=1-P(c^*|\boldsymbol{x}) \tag{2}\\ err=1-P(c|\boldsymbol{x}) \tag{3} \end{align} P(cx)P(cx)err=1P(cx)err=1P(cx)(1)(2)(3)

由式(2)(3)有:
e r r = 1 − P ( c ∣ x ) ⩾ 1 − P ( c ∗ ∣ x ) = e r r ∗ \begin{align} err=1-P(c|\boldsymbol{x})\geqslant 1-P(c^*|\boldsymbol{x})=err^* \tag{4} \end{align} err=1P(cx)1P(cx)=err(4)
即【西瓜书(10.40)】左侧不等式得证.
e r r ⋍ 1 − ∑ c ∈ Y P ( c ∣ x ) 2 (由【西瓜书(10.2)】第二行) = 1 − P ( c ∗ ∣ x ) 2 − ∑ c ≠ c ∗ P ( c ∣ x ) 2 = ( 1 − P ( c ∗ ∣ x ) ) ( 1 + P ( c ∗ ∣ x ) ) − ∑ c ≠ c ∗ P ( c ∣ x ) 2 = e r r ∗ ( 2 − e r r ∗ ) − ∑ c ≠ c ∗ P ( c ∣ x ) 2 \begin{align} err&\backsimeq 1-\sum_{c\in \mathcal{Y} }{P(c|\boldsymbol{x})}^2\quad \text{(由【西瓜书(10.2)】第二行)}\notag\\ &= 1-{P(c^*|\boldsymbol{x})}^2-\sum_{c\neq c^* }{P(c|\boldsymbol{x})}^2\notag\\ &= (1-{P(c^*|\boldsymbol{x})})(1+{P(c^*|\boldsymbol{x})})-\sum_{c\neq c^* }{P(c|\boldsymbol{x})}^2\notag\\ &= err^*(2-err^*)-\sum_{c\neq c^* }{P(c|\boldsymbol{x})}^2 \tag{5} \end{align} err1cYP(cx)2(由【西瓜书(10.2)】第二行)=1P(cx)2c=cP(cx)2=(1P(cx))(1+P(cx))c=cP(cx)2=err(2err)c=cP(cx)2(5)

这里我们作点数学知识准备:将不等式 a 2 + b 2 ⩾ 2 a b a^2+b^2\geqslant 2ab a2+b22ab推广到一般情形:
∵   P i 2 + P j 2 ⩾ 2 P i P j ∴   ∑ i ∑ j ( P i 2 + P j 2 ) ⩾ 2 ∑ i ∑ j P i P j ∴   n ∑ i P i 2 ⩾ ∑ i ∑ j P i P j = ( ∑ i P i ) 2 \begin{align} &\because\ P_i^2+P_j^2\geqslant 2P_iP_j\notag\\ &\therefore\ \sum_i\sum_j(P_i^2+P_j^2)\geqslant 2\sum_i\sum_jP_iP_j\notag\\ &\therefore\ n\sum_iP_i^2\geqslant \sum_i\sum_jP_iP_j=(\sum_iP_i)^2 \tag{6} \end{align}  Pi2+Pj22PiPj ij(Pi2+Pj2)2ijPiPj niPi2ijPiPj=(iPi)2(6)

在式(6)中,令: P i = P ( c ∣ x ) P_i=P(c|\boldsymbol{x}) Pi=P(cx),( c ∈ Y , c ≠ c ∗ c\in \mathcal{Y},c\neq c^* cY,c=c)故 n = ∣ Y ∣ − 1 n=|\mathcal{Y}|-1 n=Y1
式(5)的第2项应用(6)有:
( ∣ Y ∣ − 1 ) ∑ c ≠ c ∗ P ( c ∣ x ) 2 ⩾ ( ∑ c ≠ c ∗ P ( c ∣ x ) ) 2 \begin{align} (|\mathcal{Y}|-1)\sum_{c\neq c^*}P(c|\boldsymbol{x})^2\geqslant (\sum_{c\neq c^*}P(c|\boldsymbol{x}))^2 \tag{7} \end{align} (Y1)c=cP(cx)2(c=cP(cx))2(7)
由式(7)(5)整理即【西瓜书(10.40)】右侧不等式得证。

10.3:
参见8、协方差矩阵的特征值中的式 (D10)的证明。

10.4:
参见8、协方差矩阵的特征值中的式 (D11)的讨论。

注:10.3与10.4这两题都是讨论“中心化”问题。 “中心化”实际上是作平移,将坐标原点平移到“中心点”,这样,数据集就关于原点“对称”(物理质心),再求方差就简化了。

10.5:
投影变换公式是基于正交矩阵(即【西瓜书(10.15)】中 s . t . W T W = I \mathrm{s.t.}\mathbf{W}^\mathrm{T}\mathbf{W}=\mathbf{I} s.t.WTW=I)推导的,故当使用正交投影矩阵时,估值会更准确。 而非正交是现实问题的普遍现象,因此,采用非正交的方式的优势是适应范围广,缺点是损失了一定的合理性。

10.6:
这是一个实践题,理论依据参见10.6 图像压缩(图像坐标x压缩成了坐标z么?错!)

10.7:
核化线性降维与流形学习从整体上看都是非线性变换,而且都是以线性变换为基础。 流形学习基于欧氏空间的“连续拼接”,当局部具有线性不变性,则为LLE算法, 核化线性降维是基于核空间中进行线性变换,对应于PCA降维有KPCA算法。优点就是利用线性变换使问题得到了极大简化,缺点就是寻找适合的“核”及“局部”没有通用的方法。

10.8:
短路:近邻范围指定过大时,距离很远的点,被误认为近邻;断路:近邻范围指定过小时,没有点的区域被误认为与其它区域不存在连接。处理方法是寻找一个度量“影响”的连续函数,变“局部视野”为“全局视野”,例如,【西瓜书图10.7】采用测地线距离以及【西瓜书(10.35)】采用影响概率。

10.9:
从LLE算法可知,它是对数据集 { x i } i = 1 m \{\boldsymbol{x}_i\}_{i=1}^m {xi}i=1m进行“批量”转换为 { z i } i = 1 m \{\boldsymbol{z}_i\}_{i=1}^m {zi}i=1m,但产生的点具有一一对应关系。 即对于 i i i,点 x i \boldsymbol{x}_i xi对应于点 z i \boldsymbol{z}_i zi

设新样本为 x 0 \boldsymbol{x}_0 x0,找到其 k k k近邻点及下标集 Q 0 Q_0 Q0,由【西瓜书(10.28)】计算出 w 0 j , ( j ∈ Q 0 ) w_{0j},(j \in Q_0) w0j,(jQ0),则得到 x 0 \boldsymbol{x}_0 x0的近似点:
x ^ 0 = ∑ j ∈ Q 0 w 0 j x j \begin{align} \hat{\boldsymbol{x}}_0=\sum_{j\in Q_0}w_{0j}\boldsymbol{x}_j \tag{8} \end{align} x^0=jQ0w0jxj(8)
该近似点对应到低维空间中:
z ^ 0 = ∑ j ∈ Q 0 w 0 j z j \begin{align} \hat{\boldsymbol{z}}_0=\sum_{j\in Q_0}w_{0j}\boldsymbol{z}_j \tag{9} \end{align} z^0=jQ0w0jzj(9)
则可将 z ^ 0 \hat{\boldsymbol{z}}_0 z^0作为新样本 x 0 \boldsymbol{x}_0 x0的降维结果。

10.10:
参见10.10 度量学习(将欧氏距离推广成马氏距离)中将欧氏距离推广成马氏距离的讨论。

本文为原创,您可以:

  • 点赞(支持博主)
  • 收藏(待以后看)
  • 转发(他考研或学习,正需要)
  • 评论(或讨论)
  • 引用(支持原创)
  • 不侵权

上一篇:周志华西瓜书《机器学习》习题提示——第9章
下一篇:11.1 子集搜索与评价(流水贪心,贪心法的优缺点)

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值