西瓜书《机器学习》课后答案——chapter10 降维与度量学习

10.1 西瓜书《机器学习》课后答案——chapter10 _10.1 KNN算法

10.2 令err,err∗分别表示最近邻分类器与贝叶斯最优分类器的期望错误率,试证明:

errerrerr(2|Y||Y|1×err).(1)

解答:
不知道这里所谓的期望错误率是指什么。在原论文Nearest Neighbor Pattern Classification. 1967.中,定义的是NN条件风险 r(x,xn) 与NN总体风险 R ,以及贝叶斯条件风险 r(x) 与贝叶斯总体风险 R 。在书中定义的 P(err) 其实是NN条件风险。事实上,条件风险和总体风险都满足(1)。

贝叶斯条件风险与贝叶斯风险:
假设已知条件分布 P(C|X) 与损失函数 L(i,j) L(i,j) 表示把i类实例误分为j类的损失。定义实例x上的条件风险为

r(C=j|X=x)=iP(i|x)L(i,j).(2)

这个式子可以这样理解:实例的类别并不是唯一确定的,而是在所有类别上有一个分布。如果把实例划分为类别j,那么损失为L(i,j)的期望损失。

贝叶斯决策规则会把实例x分类到条件风险最小的类别,对应的条件风险称为Bayes条件风险:

r(x)=minjr(j|x).(3)

Bayes条件风险的期望称为Bayes风险:

R=E[r(x)],(4)

这是所有的分类器所能达到的最小风险。

如果损失函数为0-1损失函数,则

r(C=j|X=x)=iP(i|x)L(i,j)=1P(j|x).(5)

r(x)=minjr(j|x)=minj{ 1P(j|x)}=1maxjP(j|x).(6)

NN条件风险与NN风险:
给定训练数据 { (x1,θ1),(x2,θ2),,(xn,θn)} 。对实例 x ,可以得到训练集中距离 x 最近的样本,记作 xn 。如果 x 的真实类别是 θ ,则NN算法的损失为 L(θ,θn) ,下面我们会考虑0-1损失函数。
如果所有的训练样本对都是随机变量,可以定义NN条件风险为:

r(x,xn)=E[L(θ,θn)|
  • 11
    点赞
  • 53
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值