K最近邻算法(K-NN)

K最近邻(K-NN)是一种基本的分类与回归算法,适用于监督学习。它基于实例,无需参数,通过计算新样本与已有标签样本之间的距离来预测类别。在K-NN分类中,选择合适的K值至关重要,K值过小易受噪声影响,过大则增加计算复杂度。通常使用欧几里得距离,但也包括Hamming、Manhattan和Minkowski等其他距离度量方式。
摘要由CSDN通过智能技术生成

K-NN是什么?

K最近邻算法是一种简单但目前最常用的分类算法,也可用于回归。
KNN没有参数(不对数据潜在分布规律做任何假设),基于实例(不建立明确的模型,而是通过具体的训练实例进行预测),用于监督学习中。

K-NN算法怎么工作?

当用KNN进行分类时,得到的结果是某一类(预测类别——一个离散值)。
这个方法有三个要素:一组有标签的对象,对象间的距离,K值(最近邻的个数)。
##进行预测
为了给没有标签的对象进行分类,需要计算这个对象和已有标签的距离,识别出距离它最近的K个最近邻,最近邻所占数量最多的类别即为该对象的类别。对于真实数据的输入变量,最常用的距离算法是欧几里得距离。

原理图示:
图1:我们想要将灰点分类到浅绿、绿色、红色
图1
图2:首先计算灰点到K个最近邻的距离。
图2
图3:假设K=4,找出4个最近邻。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值