代码实现如图 ,详细解释都在注释中
import numpy as np
# 导入运算符模块
import operator
def createDataSet():
group = np.array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]]) # 创建数据集
labels = ['A', 'A', 'B', 'B']
return group, labels
def classify0(inX, dataSet, labels, k):
"""
:param inX: 用于分类的输入向量
:param dataSet: 输入的训练样本集
:param labels: 标签向量
:param k: 用于选择最近邻居的数目
:return: 返回输入向量的预测标签
"""
dataSetSize = dataSet.shape[0] # 获取样本的数目
# tile函数(第二个参数若输入一个二元祖,第一个数表示复制的行数,第二个数表示对inx的重复的次数)
diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet # diffMat:是一个ndarray矩阵,每一行存储了inX减去一个样本数据的结果向量
sqDiffMat = diffMat ** 2 # 对相减的结果矩阵进行平方
sqDistances = sqDiffMat.sum(axis=1) # 在列的方向上对每一行的结果进行累加
distances = sqDistances ** 0.5 # 对累加后的结果进行开方,获得inX对每个样本的距离向量,也就是一维的ndarray数组
sortedDistIndicies = distances.argsort() # argsort()函数返回distance排序后的下标数组,默认为递增排序(升序)
classCount = {}
for i in range(k): # 遍历前k个距离最小的点
voteIlabel = labels[sortedDistIndicies[i]] # 取出该点对应的标签
classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1 # classCount对前k个点的标签进行计数
sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True) # 根据字典的值域进行降序排序
return sortedClassCount[0][0] # 返回预测结果
def file2matrix(filename): # 将文本记录转换为Numpy的解析程序
"""
:param filename: 文件名
:return returnMat: 样本集
:return classLabelVector: 样本集的标记
"""
fr = open(filename)
arrayOLines = fr.readlines() # 获得一个每一项元素为文件每一行的列表
numberOfLines = len(arrayOLines)
returnMat = np.zeros((numberOfLines, 3)) # returnMat为n行3列元素全为0的ndarray数组
classLabelVector = [] # 用来存放每一行的标签
labeldict = {"largeDoses": 3, "smallDoses": 2, "didntLike": 1}
index = 0 # index用于记录序号
for line in arrayOLines: # 遍历每一行的数据
line = line.strip() # 首先清除文本首尾的空白符
listFromLine = line.split('\t') # 文件数据以制表符分隔,所以需要按制表符将每一行分割成字符串列表
returnMat[index, :] = listFromLine[0:3] # 将样本数据(三个特征,三维)存入returnMat中,returnMat为样本集
classLabelVector.append(labeldict[listFromLine[-1]]) # 将当前样本的标签存入数组
index += 1
return returnMat, classLabelVector
def autoNorm(dataSet): # 归一化特征值
"""
:param dataSet: 样本集
:return normDataSet: 归一化结果矩阵
:return ranges: 归一化分母,特征数据最大值-最小值的一维向量
:return minVals: 特征数据最小值的一维向量
"""
minVals = dataSet.min(axis=0) # 按行求最小值,也就是每一类数据的最小值
maxVals = dataSet.max(axis=0) # 每一类数据的最大值
ranges = maxVals - minVals # 归一化的分母
normDataSet = np.zeros(np.shape(dataSet)) # normDataSet:用来存放归一化的结果,此处为初始化
m = dataSet.shape[0] # 获取样本数
normDataSet = dataSet - np.tile(minVals, (m, 1)) # 归一化的分子
normDataSet = normDataSet / np.tile(ranges, (m, 1)) # 归一化,normDataSet为结果矩阵
return normDataSet, ranges, minVals
def datingClassTest():
hoRatio = 0.1 # 将10%的样本取出当作测试样本
datingDataMat, datingLabels = file2matrix('./Data/appointment/datingTestSet.txt')
normMat, ranges, minVals = autoNorm(datingDataMat)
m = normMat.shape[0] # 归一化后的总样本数
numTestVecs = int(m * hoRatio) # 测试样本数量
errorCount = 0.0 # 错误预测统计
for i in range(numTestVecs): # 对测试样本进行预测
classifierResult = classify0(normMat[i, :], normMat[numTestVecs:m, :], datingLabels[numTestVecs:m], 3)
print("the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i]))
if (classifierResult != datingLabels[i]):
errorCount += 1.0
print("the total error rate is: %f" % (errorCount / float(numTestVecs)))
def classifyPerson(): # 允许用户输入文本行命令并返回预测结果
resultList = ['not at all', 'in small doses', 'in large doses']
percentTats = float(input("percentage of time spent playing video games?"))
ffMiles = float(input("frequent flier miles earned per year?"))
iceCream = float(input("liters of ice cream consumed per year?"))
datingDataMat, datingLabels = file2matrix('./Data/appointment/datingTestSet.txt')
normMat, ranges, minVals = autoNorm(datingDataMat)
inArr = np.array([ffMiles, percentTats, iceCream, ])
classifierResult = classify0((inArr - minVals) / ranges, normMat, datingLabels, 3)
print("You will probably like this person: %s" % resultList[classifierResult - 1])
if __name__ == '__main__':
datingClassTest()
classifyPerson()
关于kNN算法的理论证明,请参考李航老师的《统计学习方法》以及周志华老师的《机器学习》(西瓜书)