统计学习方法阅读笔记:k近邻法

  k近邻法由Cover和Hart在1968年提出,是一种基本的分类与回归方法。k近邻法的输入是实例的特征向量,对应于特征空间中的点,输出为实例的类别,可取多值(此前介绍的感知机模型只是线性二类分类模型)。k-nearest neighbours(kNN)的基本思想是:在训练集中寻找k个与新的输入实例最接近的实例,构成一个k邻域,并将测试实例归于这个集合中占最大优势的类别。k近邻法中的几个关键要素是:1)一个带类别标注的训练集 2)距离度量方法 3)k值的选择 4)分类决策规则。在极端情形,如k=1时,kNN算法把输入实例的类别等同于距离其最近的训练实例类别;而当k=N时,无论输入的实例是什么,都简单地预测它属于在训练实例中最多的类。

  从更广泛的意义上说,kNN是一种基于实例的学习(instance-based learning)。它是一种典型的懒惰学习方法(a lazy learning technique),意思是,直到有新的输入实例(new query)到达时才从训练集中进行泛化,否则它什么也不做,不像感知机那样有明显的学习过程(model-building process)。


kNN算法:</

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值