Exercises for Overview of Supervised Learning
Ex.2.1 假设 K K -类,每一类都有一个相关联的目标, tk t k 是一个第 k k 个位置等于1,所有位置都是0的向量。如果中元素和为1,证明对 y^ y ^ 中最大元素进行分类等价于计算最接近的目标 mink∥tk−y^∥ min k ‖ t k − y ^ ‖
证明:假设 y^=(y1,y2,…,yK) y ^ = ( y 1 , y 2 , … , y K ) , mink∥tk−y^∥ min k ‖ t k − y ^ ‖ 等价于 mink∥tk−y^∥22 min k ‖ t k − y ^ ‖ 2 2 。
不防假设 y^ y ^ 属于第1类 ,也就是说 y1≥yi∀i∈{1,2,…,K} y 1 ≥ y i ∀ i ∈ { 1 , 2 , … , K }
⟺−2y1+1≤−2yi+1∀i∈{1,2,…,K}⟺∑tyt−2y1+1≤∑tyt−2yi+1⟺∥t1−y^∥≤∥ti−y^∥∀i∈{1,2,…,K} ⟺ − 2 y 1 + 1 ≤ − 2 y i + 1 ∀ i ∈ { 1 , 2 , … , K } ⟺ ∑ t y t − 2 y 1 + 1 ≤ ∑ t y t − 2 y i + 1 ⟺ ‖ t 1 − y ^ ‖ ≤ ‖ t i − y ^ ‖ ∀ i ∈ { 1 , 2 , … , K }
Ex.2.2 如何计算Figure 2.5中模拟示例的Bayes决策边界
参考网友
Ex.2.3 推导等式:均匀分布在
p
p
维单位球内的个点,其中到圆心距离最近点的距离的中位数是
首先,我们解释一下距离的中位数。假设距离的中位数是 d d ,也就是说距离比大的和比 d d 小的概率一样。
我们知道 中半径为 r r 的球体积是,其中
ωp=πp2p2! ω p = π p 2 p 2 !
因为单位球中每一点都是等概率的,那么任取一点,它到原点的距离小于 x x 的概率是半径为球的体积除以单位球的体积,因此我们可以的得到CDF(累计密度函数,Cumulative Distribution Function):
F(x)=xp, 0≤x≤1. F ( x ) = x p , 0 ≤ x ≤ 1.
那么相应的导数就是概率密度函数(PDF probability density function):
f(x)=pxp−1 f ( x ) = p x p − 1
假设我们随机选取 N N 个点,如果其中最小的一个点等于 y y ,也就是说其中有个点不小于 y y ,其概率是,在此基础上,最小一个点是 y y 的概率密度函数是
对此概率密度函数(PDF)进行积分就可以得到累计密度函数(CDF)
G(y)=1−(1−yp)N G ( y ) = 1 − ( 1 − y p ) N
取 G(y)=0.5 G ( y ) = 0.5 就可以得到随机取 N N 个点,到圆心最近点距离中位数了。
Ex2.4讨论的边沿影响问题不是有界域均匀抽样独有的。考虑取自球形多项分布的输入。从任意样本点到原点的平方距离服从具有均值
p
p
的分布。考虑取自该分布的预测点
x0
x
0
。并设,
a=x0∥x0∥
a
=
x
0
‖
x
0
‖
是一个相关的单位向量
zi=aTxi
z
i
=
a
T
x
i
为每个训练点在该方向上的投影。
(a)证明
zi
z
i
分布在
N(0,1)
N
(
0
,
1
)
上,具有到原点的期望平方距离
1
1
,而目标点具有到原点的期望平方距离。
(b)对于
p=10
p
=
10
,证明从训练数据的中心到检验点的期望距离是
3.1
3.1
倍标准差,而所有训练点沿方向a具有期望距离
1
1
。从而,大部分预测点位于训练集的边沿。
Ex2.5(a)推导等式(2.27)
(b)推导等式(2.28)
证明:对于(a),这个是一个经典的分解,
expectedloss=bias2+variance+noise e x p e c t e d l o s s = b i a s 2 + v a r i a n c e + n o i s e ,网上很多,具体证明看网友的吧
对于(b)
Ex. 2.6
Ex. 2.7
Ex. 2.8
Ex. 2.9
end