邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。
算法思想
kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。
优点:
1.简单,易于理解,易于实现,无需估计参数,无需训练;
2. 适合对稀有事件进行分类;
3.特别适合于多分类问题(multi-modal,对象具有多个类别标签), kNN比SVM的表现要好。
缺点:
该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。 该算法只计算"最近的"邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。
该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。
可理解性差,无法给出像决策树那样的规则。
算法步骤:
(1)计算已知类别数据集中的点与当前点之间的距离
(2)按照距离递增次序排序
(3)选取与当前点距离最小的K个点
(4)确定K个点所在类别的出现频率
(5)返回前K个点出现频率最高的类别作为当前点的预测分类
程序实现:
#!/usr/bin/python
# -*- encoding:utf-8 -*-
"""
@author : kelvin
@file : kNN
@time : 2017/3/24 14:54
@description :
"""
from numpy import *
import operator
def createDataSet():
group = array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])
labels = ['A', 'A', 'B', 'B']
return group, labels
def classify0(inX, dataSet, labels, k):
dataSetSize = dataSet.shape[0] # 取得第一维度的大小,这里是训练样本的大小
# 欧氏距离
diffMat = tile(inX, (dataSetSize, 1)) - dataSet # tile(A,res)重复构建A构建数组,res给出次数,计算到每个训练样本的距离
sqDiffMat = diffMat**2
sqDistance = sqDiffMat.sum(axis=1) # 矩阵按行相加
distance = sqDistance**0.5
sortedDistIndicies = distance.argsort() # 按小到大排序,返回原来索引列表
classCount = {}
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
# 如果voteIlabel在classCount字典中,则变量加1,如果没有,则新建置1
classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1 # D.get(k[,d]) -> D[k] if k in D, else d. d defaults to None.
sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True) # 直接用sorted(classCount, reverse=True)也可以
return sortedClassCount[0][0]
group, labels = createDataSet()
print classify0([0, 0], group, labels, 3)