[分类] KNN算法

KNN算法

KNN,K-NearestNeighbor——K最近邻(不常用)

是什么?

是机器学习中有监督机器学习下的一种简单的分类算法.
K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表.

做什么?

用来给待测样本分类.

怎么做?

knn的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。
简单地说我们认为’近朱者赤’,一个样本与其最近的几个样本所属类别相同.

所以用knn做分类的时候可以分为以下三步:

  1. 设定一个k值(超参数)
  2. 计算待测试样本和训练集中所有样本的距离
  3. 选出的k个距离最近的样本
  4. 统计前k个元素 所属类别的个数
  5. 按照服从多数原则来决定样本值的类别

优点

  • 理论成熟,思想简单,既可以用来做分类也可以用来做回归
  • 可用于非线性分类
  • 训练时间复杂度比支持向量机之类的算法低,仅为O(n)
  • 和朴素贝叶斯之类的算法比,对数据没有假设,准确度高,对异常点不敏感
  • 由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合
  • 该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分

缺点

  • 计算量大,尤其是特征数非常多的时候
  • 样本不平衡的时候,对稀有类别的预测准确率低
  • KD树,球树之类的模型建立需要大量的内存
  • 使用懒散学习方法,基本上不学习,导致预测时速度比起逻辑回归之类的算法慢
  • 相比决策树模型,KNN模型可解释性不强

实例

简单实现

"""
knn
样本集
X = [[1,1],[1,1.5],[2,2],[4,3],[4,4]]
Y =['A','A','A','B','B']
测试样本:
t=[3,2] 属于哪个类型
设k=3
步骤:
1.计算待测试样本和训练集中所有样本的距离
2.对距离排序
3.选择前k个最近的距离
4.统计前k个元素 所属类别的个数
5.选择类别数最大的类别 做为预测结果
"""
import numpy as np
import operator
X = np.array([[1,1],[1,1.5],[2,2
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值