KNN
K-近邻算法原理
欧几里得距离公式:
伪代码原理
- 计算已知类别数据集中的点与当前点之间的距离
- 按照距离递增次序排序
- 选取与当前点距离最小的K个点
- 确定前K个点所在类别的出现频率
- 返回前K个点出现频率最高的类别作为当前点的预测分类
详细代码
#coding=utf-8
'''
列表:创建一个列表,只要把逗号分隔的不同的数据项使用方括号括起来即可。如下:labels,索引从0开始
(1)列表截取:list[0],list[0:],list[1:5],list[-1]
(2)删除列表元素:del list[i]
(3)列表长度:len(list)、列表组合:+ 、重复:['a']*2=['a','a']、元素是否存在于列表中:3 in [1,2,3]、迭代:for x in list:print x
(4)列表函数:cmp(list1,list2)/operator.eq(a,b),len(list),max(list),min(list),list(seq):元组转换为列表
(5)列表方法:list.append(),list.count(obj),list.extend(seq),list.index(obj),list.insert(index,obj),list.pop(obj=list[-1]),list.remove(obj),list.reverse(),list.sort([func])
KNN算法使用到的主要函数和方法:
(1)矩阵行和列的数量:array(list).shape[i],0代表行,1代表列
(2)创建固定大小的0矩阵:np.zeros((2,3)),
(3)np.tile(A,reps):将A进行重复输出,np.tile(list,[i,j]):i代表列方向,j代表行方向
(4)矩阵求和:array.sum(axis=0或1):0代表列,1代表行求和
(5)元素求平方:a**2,求开方:a**0.5
(6)排序sort(),提取源序列排序后的索引位置:argsort(),sorted:字典sorted(dic.items(),key=operator.itemgetter(1),reserve=True)
(7)a.get(k,d):如果K在字典a中,则返回a[k];如果K不在a中,则返回参数d.
(8)字典元素选择:dic[i][j]
'''
from numpy import *
import operator
from os import listdir
def createDataSet():
group=array([[1.0,1.1],[1,1],[0,0],[1,0.1]])
labels=['A','A','B','B']
return group,labels
'''
以上KNN算法的相关函数方法不熟悉,需要进一步了解如下知识点:
(1)和样本集合一样大小的0矩阵的创建,tile(a,x)扩大矩阵
(2)对矩阵中的一行中的所有列求和学习sum(axis=1):没有axis参数表示全部相加,axis=0表示按列相加,axis=1表示按照行的方向相加
(3)对矩阵进行排序,然后输出矩阵中的下标:argsort():argsort()函数是将x中的元素从小到大排列,提取其对应的index(索引)
(4)对字典中的key进行循环累计添加统计get()
(5)对字典按照key对应的值进行排序sorted()
'''
def classify0(inX,dataSet,labels,k):
dataSetSize = dataSet.shape[0]
#计算点之间的距离:先创建一个和样本一样大小的0矩阵,沿着y轴方向扩大4倍
diffMat=tile(inX,(dataSetSize,1))-dataSet
sqDiffMat=diffMat**2
sqDistances=sqDiffMat.sum(axis=1) #sum求和
distance=sqDistances**0.5
sortDisIndicies=distance.argsort() #从小到大排序,输出排序的矩阵的位置标签。
classCount={} #建立字典,存储所有点的距离和位置顺序
for i in range(k):
voteIlabels=labels[sortDisIndicies[i]] #得到排序的坐标的类标签
classCount[voteIlabels]=classCount.get(voteIlabels,0)+1 #将所有的类标签的数量进行统计
#字典按照类作为key的数值进行排序,最后选择位置为第一位最大数值的类标签,输出标签
sortedClassCount=sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True)
return sortedClassCount[0][0]
案例1
'''
举例:使用K-近邻算法改进约会网站的配对效果
(1)创建数据源txt
(2)数据源变换
(3)归一化 = (样本-min)/(max-min)
(4)测试样本
(5)人工输入样本进行测试分类
'''
def file2matrix(filename):
fr = open(filename)#打开文件
arrayOLines = fr.readlines()#读取多行
numberOfLines = len(arrayOLines)#文件行数
returnMat = zeros((numberOfLines,3))#创建行列0矩阵
classLabelVector = []
index = 0
for line in arrayOLines:
line = line.strip()#移除头尾固定字符
listFromLine = line.split('\t')#分割符
returnMat[index,:] = listFromLine[0:3]
classLabelVector.append(str(listFromLine[-1]))
index += 1
return returnMat,classLabelVector
def autoNorm(dataSet):
minVals = dataSet.min(0)#0代表列
maxVals = dataSet.max(0)
ranges=maxVals-minVals
normDataSet = zeros(shape(dataSet))
m = dataSet.shape[0]
normDataSet = dataSet - tile(minVals,(m,1))
normDataSet = normDataSet/tile(ranges,(m,1))
return normDataSet, ranges, minVals
#取10%样本进行校验,计算错误率
def datingClassTest():
hoRatio = 0.10
datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
normMat,ranges,minVals = autoNorm(datingDataMat)#归一化
m = normMat.shape[0]
numTestVecs = int(m*hoRatio)
errorCount = 0.0
for i in range(numTestVecs):
classifilerResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
print "the classifier came back with: %d, the real answer is : %d" %(int(classifilerResult), int(datingLabels[i]))
if (classifilerResult != datingLabels[i]):
errorCount +=1.0
print "the tital error rate is : %f " %(errorCount/float(numTestVecs))
print errorCount
def classifyPerson():
resultList = ['not at all','in small doses','in large doses']
percentTats = float(raw_input("percentage of time spent playing video games?"))
ffMiles = float(raw_input("freguent flier miles earned per year?"))
iceCream = float(raw_input("liters of ice cream consumed per year?"))
#训练
datingDataMat,datingLabels=file2matrix('datingTestSet2.txt')
normMat,ranges,minVals = autoNorm(datingDataMat)
#测试
inArr = array([ffMiles,percentTats,iceCream])
classifierResult = classify0((inArr-minVals)/ranges,normMat,datingLabels,3)
print "You will probably like this person: ",resultList[int(classifierResult)-1]
案例2
'''
举例:手写识别系统
(1)创建数据源txt
(2)转换成向量数据
(3)调用测试和训练数据集
(4)判断测试错误率
'''
def img2vector(filename):
returnVect = zeros((1,1024))
fr = open(filename)
for i in range(32):
lineStr = fr.readline()
for j in range(32):
returnVect[0,32*i+j] = int(lineStr[j])
return returnVect
def handwritingClassTest():
hwLabels = []
trainingFileList = listdir('trainingDigits')
print trainingFileList
m = len(trainingFileList)
trainingMat = zeros((m,1024))
for i in range(m):
fileNameStr = trainingFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
hwLabels.append(classNumStr)#存储类标签
#转化文件内容矩阵为一维矩阵
trainingMat[i,:] = img2vector('trainingDigits/%s'%fileNameStr)
testFileList = listdir('testDigits')
errorCount = 0.0
mTest = len(testFileList)
for i in range(mTest):
fileNameStr = testFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
vectorUnderTest = img2vector('testDigits/%s'%fileNameStr)
classifierResult = classify0(vectorUnderTest,trainingMat,hwLabels,3)
#print "the classifier came back with:%d,the real answer is :%d"%(classifierResult,classNumStr)
if(classifierResult != classNumStr):
errorCount+=1.0
print "\nthe total number of errors is : %d "%errorCount
print "\nthe total error rate is : %f " %(errorCount/float(mTest))