1 算法原理
knn算法的核心思想是未标记样本的类别,由距离其最近的k个邻居投票来决定。
具体的,假设我们有一个已标记好的数据集。此时有一个未标记的数据样本,我们的任务是预测出这个数据样本所属的类别。knn的原理是,计算待标记样本和数据集中每个样本的距离,取距离最近的k个样本。待标记的样本所属类别就由这k个距离最近的样本投票产生。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。
我们可以用kNN来解决电影片分类问题。
表1.1 每部电影的打斗镜头数、接吻镜头数以及电影类型
表1.1就是我们已有的数据集合,也就是训练样本集。这个数据集有两个特征,即打斗镜头数和接吻镜头数。除此之外,我们也知道每个电影的所属类型,即分类标签。
即使不知道未知电影的类型,我们也可以通过某种方式计算出来,首先计算未知电影与样本集中其他电影的距离,如图1.1所示
通过计算,我们可以得到如下结果:
- (101,20)->动作片(108,5)的距离约为16.55
- (101,20)->动作片(115,8)的距离约为18.44
- (101,20)->爱情片(5,89)的距离约为118.22
- (101,20)->爱情片(1,101)的距离约为128.69
现在我们得到了样本集中所有电影与未知电影的距离,按照距离递增排序,可以找到K个距离最近的电影。假定K=3,按距离依次排序的三个点分别是动作片(108,5)、动作片(115,8)、爱情片(5,89)。在这三个点中,动作片出现的频率为三分之二,爱情片出现的频率为三分之一,所以该红色圆点标记的电影为动作片。这个判别过程就是k-近邻算法。
2 Python代码实现海伦约会
2.1 准备数据集
海伦女士一直使用在线约会网站寻找适合自己的约会对象。尽管约会网站会推荐不同的任选,但她并不是喜欢每一个人。经过一番总结,她发现自己交往过的人可以进行如下分类:
不喜欢的人
魅力一般的人
极具魅力的人
海伦收集约会数据已经有了一段时间,她把这些数据存放在文本文件datingTestSet.txt中,每个样本数据占据一行,总共有1000行。datingTestSet.txt数据下载: 数据集
海伦收集的样本数据主要包含以下3种特征:
每年获得的飞行常客里程数
玩视频游戏所消耗时间百分比
每周消费的冰淇淋公升数
2.2代码实现
数据解析:
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.lines as mlines
# 数据预处理
def fileRead(fileName):
#打开文件
fr = open(fileName)
#读取全部内容
arraryOfLines = fr.readlines()
#求行数
numberOfLines = len(arraryOfLines)
#生成numberOfLines行,3列的矩阵,方便后面存放数据
returnMat = np.zeros((numberOfLines, 3))
#用于存放类别
classLabelVector = []
#设置索引,用于循环
index = 0
#开始循环读取
for line in arraryOfLines:
#去除掉文件中的多余字符
line = line.strip()
#用空格对内容进行分割
listFormLine = line.split('\t')
#赋值
returnMat[index, :] = listFormLine[0:3]
#对类别数组进行赋值
if listFormLine[-1] == 'didntLike':
classLabelVector.append(1)
if listFormLine[-1] == 'smallDoses':
classLabelVector.append(2)
if listFormLine[-1] == 'largeDoses':
classLabelVector.append(3)
index += 1
return returnMat, classLabelVector
# 数据展示
def showData(datingDataMat, datingLabels):
fig, axs = plt.subplots(nrows=2, ncols=2, sharex=False, sharey=False, figsize=(13, 8))
LabelsColors = []
for i in datingLabels:
if i == 1:
LabelsColors.append('black')
if i == 2:
LabelsColors.append('orange')
if i == 3:
LabelsColors.append('red')
axs[0][0].scatter(x=datingDataMat[:, 0], y=datingDataMat[:, 1], color=LabelsColors, s=15, alpha=.5)
axs0_title_text = axs[0][0].set_title('flight_play')
axs0_xlabel_text = axs[0][0].set_xlabel('flight_time')
axs0_ylabel_text = axs[0][0].set_ylabel('play_time')
plt.setp(axs0_title_text, size=9, weight='bold', color='red')
plt.setp(axs0_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs0_ylabel_text, size=7, weight='bold', color='black')
axs[0][1].scatter(x=datingDataMat[:, 0], y=datingDataMat[:, 2], color=LabelsColors, s=15, alpha=.5)
# 设置标题,x轴label,y轴label
axs1_title_text = axs[0][1].set_title('flight_eat')
axs1_xlabel_text = axs[0][1].set_xlabel('flight')
axs1_ylabel_text = axs[0][1].set_ylabel('eat')
plt.setp(axs1_title_text, size=9, weight='bold', color='red')
plt.setp(axs1_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs1_ylabel_text, size=7, weight='bold', color='black')
# 画出散点图,以datingDataMat矩阵的第二(玩游戏)、第三列(冰激凌)数据画散点数据,散点大小为15,透明度为0.5
axs[1][0].scatter(x=datingDataMat[:, 1], y=datingDataMat[:, 2], color=LabelsColors, s=15, alpha=.5)
# 设置标题,x轴label,y轴label
axs2_title_text = axs[1][0].set_title('play_eat')
axs2_xlabel_text = axs[1][0].set_xlabel('play_time')
axs2_ylabel_text = axs[1][0].set_ylabel('eat_weight')
plt.setp(axs2_title_text, size=9, weight='bold', color='red')
plt.setp(axs2_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs2_ylabel_text, size=7, weight='bold', color='black')
# 设置图例
didntLike = mlines.Line2D([], [], color='black', marker='.',
markersize=6, label='didntLike')
smallDoses = mlines.Line2D([], [], color='orange', marker='.',
markersize=6, label='smallDoses')
largeDoses = mlines.Line2D([], [], color='red', marker='.',
markersize=6, label='largeDoses')
# 添加图例
axs[0][0].legend(handles=[didntLike, smallDoses, largeDoses])
axs[0][1].legend(handles=[didntLike, smallDoses, largeDoses])
axs[1][0].legend(handles=[didntLike, smallDoses, largeDoses])
# 显示图片
plt.show()
fileName = 'datingTestSet.txt'
datingDataMat, datingLabels = fileRead(fileName)
print("datingLabels is",datingLabels)
print("datingDataMat is",datingDataMat)
showData(datingDataMat,datingLabels)
效果展示
数据归一化:
归一化公式如下:
n e w V a l u e s = ( o l d V a l u e − m i n ) / ( m a x − m i n )
代码实现:
def autoNorm(dataSet):
#获得数据的最小值
minVals = dataSet.min(0)
maxVals = dataSet.max(0)
#最大值和最小值的范围
ranges = maxVals - minVals
#shape(dataSet)返回dataSet的矩阵行列数
normDataSet = np.zeros(np.shape(dataSet))
#返回dataSet的行数
m = dataSet.shape[0]
#原始值减去最小值
normDataSet = dataSet - np.tile(minVals, (m, 1))
#除以最大和最小值的差,得到归一化数据
normDataSet = normDataSet / np.tile(ranges, (m, 1))
#返回归一化数据结果,数据范围,最小值
return normDataSet, ranges, minVals
代码整理:
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.lines as mlines
import operator
# 数据预处理
def fileRead(fileName):
# 打开文件
fr = open(fileName)
# 读取全部内容
arraryOfLines = fr.readlines()
# 求行数
numberOfLines = len(arraryOfLines)
# 生成numberOfLines行,3列的矩阵,方便后面存放数据
returnMat = np.zeros((numberOfLines, 3))
# 用于存放类别
classLabelVector = []
# 设置索引,用于循环
index = 0
# 开始循环读取
for line in arraryOfLines:
# 去除掉文件中的多余字符
line = line.strip()
# 用空格对内容进行分割
listFormLine = line.split('\t')
# 赋值
returnMat[index, :] = listFormLine[0:3]
# 对类别数组进行赋值
if listFormLine[-1] == 'didntLike':
classLabelVector.append(1)
if listFormLine[-1] == 'smallDoses':
classLabelVector.append(2)
if listFormLine[-1] == 'largeDoses':
classLabelVector.append(3)
index += 1
return returnMat, classLabelVector
# 数据展示
def showData(datingDataMat, datingLabels):
fig, axs = plt.subplots(nrows=2, ncols=2, sharex=False, sharey=False, figsize=(13, 8))
LabelsColors = []
for i in datingLabels:
if i == 1:
LabelsColors.append('black')
if i == 2:
LabelsColors.append('orange')
if i == 3:
LabelsColors.append('red')
axs[0][0].scatter(x=datingDataMat[:, 0], y=datingDataMat[:, 1], color=LabelsColors, s=15, alpha=.5)
axs0_title_text = axs[0][0].set_title('flight_play')
axs0_xlabel_text = axs[0][0].set_xlabel('flight_time')
axs0_ylabel_text = axs[0][0].set_ylabel('play_time')
plt.setp(axs0_title_text, size=9, weight='bold', color='red')
plt.setp(axs0_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs0_ylabel_text, size=7, weight='bold', color='black')
axs[0][1].scatter(x=datingDataMat[:, 0], y=datingDataMat[:, 2], color=LabelsColors, s=15, alpha=.5)
# 设置标题,x轴label,y轴label
axs1_title_text = axs[0][1].set_title('flight_eat')
axs1_xlabel_text = axs[0][1].set_xlabel('flight')
axs1_ylabel_text = axs[0][1].set_ylabel('eat')
plt.setp(axs1_title_text, size=9, weight='bold', color='red')
plt.setp(axs1_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs1_ylabel_text, size=7, weight='bold', color='black')
# 画出散点图,以datingDataMat矩阵的第二(玩游戏)、第三列(冰激凌)数据画散点数据,散点大小为15,透明度为0.5
axs[1][0].scatter(x=datingDataMat[:, 1], y=datingDataMat[:, 2], color=LabelsColors, s=15, alpha=.5)
# 设置标题,x轴label,y轴label
axs2_title_text = axs[1][0].set_title('play_eat')
axs2_xlabel_text = axs[1][0].set_xlabel('play_time')
axs2_ylabel_text = axs[1][0].set_ylabel('eat_weight')
plt.setp(axs2_title_text, size=9, weight='bold', color='red')
plt.setp(axs2_xlabel_text, size=7, weight='bold', color='black')
plt.setp(axs2_ylabel_text, size=7, weight='bold', color='black')
# 设置图例
didntLike = mlines.Line2D([], [], color='black', marker='.',
markersize=6, label='didntLike')
smallDoses = mlines.Line2D([], [], color='orange', marker='.',
markersize=6, label='smallDoses')
largeDoses = mlines.Line2D([], [], color='red', marker='.',
markersize=6, label='largeDoses')
# 添加图例
axs[0][0].legend(handles=[didntLike, smallDoses, largeDoses])
axs[0][1].legend(handles=[didntLike, smallDoses, largeDoses])
axs[1][0].legend(handles=[didntLike, smallDoses, largeDoses])
# 显示图片
plt.show()
# 数据归一化
def autoNorm(dataSet):
minVals = dataSet.min(0)
maxVals = dataSet.max(0)
ranges = maxVals - minVals
normalDataSet = np.zeros(np.shape(dataSet))
m = dataSet.shape[0]
normalDataSet = dataSet - np.tile(minVals, (m, 1))
normalDataSet = normalDataSet / np.tile(ranges, (m, 1))
return normalDataSet, ranges, minVals
#分类器
def classify(input, dataSet, labels, k):
# numpy中的shape方法用于计算形状 eg: dataSet: 4*2
# print(dataSet.shape)
dataSetSize = dataSet.shape[0]
# numpy中的tile方法,用于对矩阵进行填充
# 将inX矩阵填充至与dataSet矩阵相同规模,后相减
diffMat = np.tile(input, (dataSetSize, 1)) - dataSet
# 平方
sqDiffMat = diffMat ** 2
# 求和
sqDistance = sqDiffMat.sum(axis=1)
# 开方
distance = sqDistance ** 0.5
# argsort()方法进行直接排序
sortDist = distance.argsort()
classCount = {}
for i in range(k):
# 取出前k个元素的类别
voteIlabel = labels[sortDist[i]]
# dict.get(key,default=None),字典的get()方法,返回指定键的值,如果值不在字典中返回默认值。
# 计算类别次数
classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
# 排序
sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
# 返回次数最多的类别,即所要分类的类别
return sortedClassCount[0][0]
fileName = 'datingTestSet.txt'
datingDataMat, datingLabels = fileRead(fileName)
showData(datingDataMat, datingLabels)
percent = 0.10
normalDataMat, ranges, minvals = autoNorm(dataSet=datingDataMat)
m = normalDataMat.shape[0]
numTestVecs = int(m*percent)
errorCount = 0.0
for i in range(numTestVecs):
classifyResult = classify(normalDataMat[i,:],normalDataMat[numTestVecs:m,:],
datingLabels[numTestVecs:m],4)
print("分类结果:%d,真实类别:%d" % (classifyResult,datingLabels[i]))
if(classifyResult!=datingLabels[i]):
errorCount += 1.0
print("错误率:%f%%" %(errorCount/float(numTestVecs)*100))
运行截图:
3.python实现手写识别系统
3.1 准备数据集
既然我们明白了kNN算法是根据计算新数据和样本数据集之间的距离,然后找到距离最小的样本的分类作为新数据的分类。所以我们也需要考虑如何计算0-9之间这十个数字的距离。首先书中已经提供了0-9数字的样本集,每个数字提供了大概200左右的样本,在trainingDigits目录下。
比如其中的0_0.txt就是数字0的第一个样本,又比如9_45.txt就是数字9的第45个实例,数字样本采用的是32*32文本存储方式:
比如:0_0.txt,从图中也能看出来像数字0。
由于我们后续需要计算的距离就是根据这些0和1的排列方式计算的,所以类似数字7这种写法差异的话,最后分类结果也可能有差异。如果可能的话,自己也是可以根据自己的书写习惯写样本集,然后将其转换为32*32文本存放,这样一来分类结果肯定要比这种的好一点。
为了使用前面的分类器,我们必须将这个32*32的数组转换为一个1*1024的向量。首先编写一个img2vector的函数,传入一个样本数据的文件名,可以将这个文件中的32*32数组转换为一个1*1024的向量
函数代码:
def img2vector(filename):
"""
将32*32的图像矩阵转化为1*1024的向量
:param filename: 文件名
:return:
"""
# 制造一个空数组
returnVect = np.zeros((1,1024))
# 打开文件
fr = open(filename)
# 将矩阵转换为1*1024的
for i in range(32):
# 读取一行数据
lineStr = fr.readline().strip()
# 将每行的数字存放在数组中
for j in range(32):
returnVect[0, 32*i+j] = int(lineStr[j])
return returnVect
3.2 代码整理
编写一个handwritingClassTest函数,该函数将trainingDigits目录下的所有样本进行读取,然后创建一个m*1024的训练矩阵进行存储,很显然该矩阵每一行都代表着一个图像。然后再读取testDigits目录下的测试样本集,每次读取一个文件,也就代表着一个图像,然后将其转换为1*1024数组,和原来的训练矩阵共同输入到之前的kNN分类器中进行分类。分类器会计算这个测试样本集和训练矩阵的距离,根据欧氏距离的计算方法,这个测试数据共计算m次距离,然后找到距离最近的,这个计算量还是比较巨大的。
代码部分:
def handwritingClassTest():
"""
数字测试
:return:
"""
# 数字对应的标签,也就是数字的本身
hwLabels = []
# 得到目录下的所有文件名称
trainingFileList = listdir('trainingDigits')
# 计算共有多少个文件
m = len(trainingFileList)
# 构造m*1024 数组,用来存放所有的数字
trainingMat = np.zeros((m, 1024))
# 遍历所有的文件,将其加载到数组中
for i in range(m):
# 得到文件名称
fileNameStr = trainingFileList[i]
# 去除后面的.txt,得到有用的文件名
fileStr = fileNameStr.split('.')[0]
# 解析出来当前是哪个数字
classNumStr = int(fileStr.split('_')[0])
# 添加到标签上
hwLabels.append(classNumStr)
# 将文件转化为数组并存放到总的数组中
trainingMat[i, :] = img2vector('trainingDigits/%s' % fileNameStr)
# 得到测试文件的目录
testFileList = listdir('testDigits')
# 错误统计
errorCount = 0.0
# 测试数据的总数
mTest = len(testFileList)
for i in range(mTest):
fileNameStr = testFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
# 使用分类器得到结果
classifierResult = kNN.classify0(vectorUnderTest, trainingMat, hwLabels, 3)
# 打印结果
print('使用分类器得到的结果为:%s,真实的结果为:%s' % (classifierResult, classNumStr))
# 错误的话记录下来
if classifierResult != classNumStr:
errorCount += 1.0
print('识别错误的个数为:%s' % errorCount)
print('分类器的正确率为:%f' % (errorCount/float(mTest)))
3.3运行截图