机器学习实战学习笔记(一):K-近邻算法
文章目录
这一系列为笔者在学习后对原书中的理论和代码学习后的一些总结笔记。
K-近邻算法概述
K-近邻算法是采用测量不同特征值之间的距离方法进行分类。在流程中无需训练算法,因此是属于懒惰学习。
准备:使用python导入数据
from numpy import *
#运算符模块
import operator
def createDataset():
group = array([[1.0,1.1],[1.0, 1.0],[0,0],[0,0.1]])
labels = ['A','A','B','B']
return group,labels
group,labels = createDataset()
group
labels
实施KNN算法
KNN算法的大体思路是:
- 首先计算已知类别数据集中的点与当前点之间的距离。
- 按照距离递增次序排序。
- 选取与当前点距离最小的k个点。
- 确定前k个点所在类别的出现频率。
- 返回前k个点出现频率最高的类别作为当前点的预测分类。
程序清单如下:
#k-近邻算法
def classify0(inX,dataSet,labels,k):
dataSetSize = dataSet.shape[0]
#距离计算
diffMat = tile(inX,(dataSetSize,1)) - dataSet
sqDiffMat = diffMat ** 2
sqDistances = sqDiffMat.sum(axis = 1)
distances = sqDistances ** 0.5
sortedDistIndices = distances.argsort() #从小到大排序
classCount = {}
#选择距离最小的k个点
for i in range(k):
voteIlabel = labels[sortedDistIndices[i]]
classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
#排序
sortedClassCount = sorted(classCount.items(),
key = operator.itemgetter(1),
reverse = True)
return sortedClassCount[0][0]
此处的距离计算采用的欧氏距离公式: d = ( x A 0 − x B 0 ) 2 + ( x A 1 − x B 1 ) 2 d = \sqrt{{(xA_0-xB_0)}^2 + {(xA_1 - xB_1)}^2} d=(xA0−xB0)2+(xA1−xB1)2
这里的代码需要注意第17行中:源代码为classCount.iteritems()
可能会发生报错。这是由于原书代码版本为python 2._版本。
需要修改为Python 字典(Dictionary) items() 函数以列表返回可遍历的(键, 值) 元组数组。
如何测试分类器
通过测试大量数据,得到分类器的错误率:分类器给出错误结果的次数除以测试执行的总数。
案例:使用k-近邻算法改进约会网站的配对效果
准备数据:从文本文件中解析数据
#将文本记录转换为Numpy的解析程序
def file2matrix(filename):
fr = open(filename)
#得到文件行数
arrayOlines = fr.readlines()
numberOfLines = len(arrayOlines)
#创建返回的numpy矩阵
returnMat = zeros((numberOfLines,3))
classLabelVector = []
index = 0
#解析文件数据到列表
for line in arrayOlines:
line = line.strip() #截掉所有的回车字符
listFromLine = line.split('\t') #将得到的整行数据分割成一个元素列表
returnMat[index,:] = listFromLine[0:3] #前三个元素作为特征矩阵
classLabelVector.append(int(listFromLine[-1])) #最后一列作为标签
index += 1
return returnMat,classLabelVector
datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
datingDataMat
注意:此处的文件一定要使用datingTestSet2.txt,原文件会产生报错。
最后展示结果如下:
分析数据:使用Matplotlib创建散点图
采用图形化的方式直观地展示数据。
import matplotlib
import matplotlib.pyplot as plt
fig = plt.figure()
ax = fig.add_subplot(111)
ax.scatter(datingDataMat[:,1],datingDataMat[:,2])
plt.show
展示图片如下:
准备数据:归一化数值
当特征数据差值过大,数字差值越大的属性对计算结果的影响越大,但每种特征值权重是同等重要的,因此我们需要在处理这种不同取值范围的特征时,需要将数值归一化。
n e w V a l u e = ( o l d V a l u e − m i n ) ( m a x − m i n ) newValue = \frac{(oldValue - min)}{(max - min)} newValue=(max−min)(oldValue−min)
归一化特征值的函数如下:
#归一化数值
def autoNorm(dataSet):
minvals = dataSet.min(0) #从列中选取最小值
maxvals = dataSet.max(0)
ranges = maxvals - minvals
normDataSet = zeros(shape(dataSet))
m = dataSet.shape[0]
normDataSet = dataSet - tile(minvals,(m,1))
#特征值相除
normDataSet = normDataSet / tile(ranges,(m,1))
return normDataSet,ranges,minvals
normMat,ranges,minvals = autoNorm(datingDataMat)
测试算法:作为完整程序验证分类器
错误率就是分类器给出错误结果的次数除以测试数据的总数。
#分类器针对约会网站的测试代码
def datingClassTest():
hoRatio = 0.10
datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
normMat,ranges,minvals = autoNorm(datingDataMat)
m = normMat.shape[0]
numTestVecs = int(m * hoRatio)
errorCount = 0.0
for i in range(numTestVecs):
classifierResult = classify0(normMat[i,:],
normMat[numTestVecs:m,:],
datingLabels[numTestVecs:m],3)
print ("the classifier came back with: %d,the real answer is: %d" % (classifierResult,datingLabels[i]))
if (classifierResult != datingLabels[i]):
errorCount += 1.0
print ("the total error rate is: %f" % (errorCount / float(numTestVecs)))
datingClassTest()
执行结果如下:
使用算法:构建完整可用系统
#约会网站预测函数
def classifyPerson():
resultList = ['not at all','in small doses','in large doses']
#input()函数允许用户输入文本行命令并返回用户所输入的命令
percentTats = float(input("percentage of time spent playing video games?"))
ffMiles = float(input("frequent flier miles earned per year?"))
iceCream = float(input("liters of ice cream consumed per year?"))
datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
normMat,ranges,minvals = autoNorm(datingDataMat)
inArr = array([ffMiles,percentTats,iceCream])
classifierResult = classify0((inArr - minvals)/ranges,normMat,datingLabels,3)
print ("You will probably like this person:",resultList[classifierResult - 1])
注意第5行中使用函数input(),原代码中的raw_input()函数为python 2._版本。
案例:手写识别系统
准备数据:将图像转换为测试向量
import numpy as np
import operator
#将图像转换为向量:将一个32*32的二进制图像矩阵转换为1*1024的向量
def img2vector(filename):
returnVect = zeros((1,1024))
fr = open(filename)
for i in range(32):
lineStr = fr.readline()
for j in range(32):
returnVect[0,32 * i + j] = int(lineStr[j])
return returnVect
testVector = img2vector('testDigits/0_13.txt')
testVector[0,0:31]
测试算法:使用k-近邻算法识别手写数字
from os import listdir #列出给定目录的文件名
#手写数字识别系统的测试代码
def handwritingClassTest():
hwLabels = []
#获取目录内容
trainingFileList = listdir('trainingDigits')
m = len(trainingFileList)
trainingMat = zeros((m,1024))
for i in range(m):
#从文件名解析分类数字
fileNameStr = trainingFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
hwLabels.append(classNumStr)
trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr)
testFileList = listdir('testDigits')
errorCount = 0.0
mTest = len(testFileList)
for i in range(mTest):
fileNameStr = testFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
classifierResult = classify0(vectorUnderTest,
trainingMat,hwLabels,3)
print("the classifier came back with:%d,the real answer is:%d" %
(classifierResult,classNumStr))
if (classifierResult != classNumStr):
errorCount += 1.0
print("\nthe total number or errors is: %d" % errorCount)
print("\nthe total error rate is:%f" % (errorCount / float(mTest)))
handwritingClassTest()
运行结果如下:
总结:
k-近邻算法的缺陷:
- 必须保存全部的数据集,如果训练数据集很大,需使用大量的存储空间。其次可能会非常耗时。
- 无法给出任何数据的基础结构信息,无法了解到平均实例样本和典型样本具有什么特征。