1.概念:
邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是
数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。
kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。
K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属的类别,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。
2.算法流程
1. 准备数据,对数据进行
预处理
2. 选用合适的数据结构存储训练数据和测试元组
3. 设定参数,如k
4.维护一个大小为k的的按距离由大到小的
优先级队列,用于存储最近邻训练元组。随机从训练元组中选取k个元组作为初始的最近邻元组,分别计算测试元组到这k个元组的距离,将训练元组标号和距离存入优先级队列
5. 遍历训练元组集,计算当前训练元组与测试元组的距离,将所得距离L 与优先级队列中的最大距离Lmax
6. 进行比较。若L>=Lmax,则舍弃该元组,遍历下一个元组。若L < Lmax,删除优先级队列中最大距离的元组,将当前训练元组存入优先级队列。
7. 遍历完毕,计算优先级队列中k 个元组的多数类,并将其作为测试元组的类别。
8. 测试元组集测试完毕后计算误差率,继续设定不同的k值重新进行训练,最后取误差率最小的k 值。
3.算法在python3中的实现
import csv
import math
import random
import operator
def Load_dataset(file_path,split,TesttrainingSet=[],TestSet = []):
""" 加载数据,并将数据按比例分成训练集和测试集
:param file_path: 文件路径
:param split: 训练和测试的百分比
:param TesttrainingSet: 训练列表集合
:param TestSet: 测试列表集合
:return:
"""
with open(file_path) as csvfile:
lines = csv.reader(csvfile)
dataset = list(lines)
#print(dataset)
for x in range(len(dataset)-1): #遍历所有数据
for y in range(4) :#将所有行的数据转化成浮点数
dataset[x][y] = float(dataset[x][y])
if random.random()<split: #按比例把数据分成训练集和测试集合
TesttrainingSet.append(dataset[x])
else :
TestSet.append(dataset[x])
def Caculate_distance(Instance1,Instance2,length):
""" 计算样本的距离
:param Instance1:样本1 (列表)
:param Instance2: 样本2(列表)
:param length: 样本的维度
:return: 样本之间的距离
"""
for i in range(length):
distance = math.pow((Instance1[i]-Instance2[i]),2)
distance =math.sqrt(distance)
return distance
def Get_negibors(Trainingset,TestInstance,K):
""" 获得最近距离的K个邻居
:param Trainingset: 训练样本集合
:param TestInstance: 中心样本点
:param K: 获得的邻居的个数
:return: 邻近样本的集合
"""
Distance_list = [] #存储距离
Neighbor =[] #存储K个紧邻样本
length = len(TestInstance)-1 #获得样本的维度
for x in range(len(Trainingset)): #遍历所有的训练集,求距离
dis = Caculate_distance(Trainingset[x],TestInstance,length)
Distance_list.append((Trainingset[x],dis)) #将对应的距离元组的形式存储到列表中
Distance_list.sort(key = operator.itemgetter(1)) #对距离排序
for i in range(K):
Neighbor.append(Distance_list[i][0]) #将近邻的点存储到Neighbor列表中
# print(Distance_list[i])
#print(Neighbor)
return Neighbor
def Get_Response(Neighbor):
""" 根据多数原则,从邻近的集合中确定样本类型
:param Neighbor:
:return: 样本所属类型
"""
classVotes = {} #字典,用来存储每一种邻居的个数
for x in range(len(Neighbor)):
response = Neighbor[x][-1]
if response in classVotes:
classVotes[response] +=1
else:
classVotes[response]=1
sortedVotes = sorted(classVotes.items(), key=operator.itemgetter(1), reverse=True) #对字典排序后会变成列表+元组的形式存储
#print(sortedVotes)
return sortedVotes[0][0]
def Accurancy_judge(Test_data,Prediction):
""" 判断预测是否正确
:param Test_data: 原测试样本
:param Prediction: 预测结果
:return: 1(正确) 0(错误)
"""
flag = 0
if Test_data[-1] ==Prediction:
flag =1
else:
flag =0
return flag
def main():
TesttrainingSet = []
TestSet = []
Predict_list = []
Load_dataset('F:/python学习/KNN算法/irisdata.txt',0.7,TesttrainingSet,TestSet)
# print(TestSet)
# print(TesttrainingSet)
total = len(TestSet)
count =0
for i in range(len (TestSet)):#遍历所有要测试的样本
Neighbors = Get_negibors(TesttrainingSet,TestSet[i],9)#获取样本的邻近点的集合
predict = Get_Response(Neighbors)#预测
Predict_list.append(predict)
count +=Accurancy_judge(TestSet[i],predict)
print(predict+'\n'+TestSet[i][-19]) #输出实际值和预测值
print("预测的正确率为 %f" %((count/total)*100)+"%")#计算并输出邻近算法的正确率
if __name__ == '__main__':
main()