《统计学习方法》——k近邻法

k近邻

简介

k近邻法是一种基本分类与回归方法。在这里我们只讨论分类问题中的k近邻法。
三要素

  1. k值的选择
  2. 距离度量
  3. 分类决策规则

最后会引入一种k近邻的实现方法——kd树。

3. 1 k近邻算法

算法:

输入:训练数据集T
输出:实例x所属的类y

  1. 根据给定的距离度量,在训练集中找到和x最近的k个点
  2. 在这k个点中根据分类决策规则,决定x的类别

注意:k近邻法没有显示的学习过程

3.2 k近邻模型

模型由上述的三要素决定。

k值的选择

实际上只要记住:
选择较小的k值,模型变得复杂,容易出现过拟合;选择较大的k值,模型变得简单,可以减小估计误差,但容易欠拟合。

距离度量

一般使用欧氏距离。

分类决策规则

一般使用多数表决规则(majority voting rule)。
多数表决规则等价于经验风险最小化。

3.3 kd树

注意此处的k是指储存k维的数据的树结构,而不是k近邻中的k。

kd树是用来提高k近邻法实现效率问题的。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值