相信稍微了解过机器学习的都应该知道k近邻算法,如果不是很了解的,可以看我上一次的博客,或者搜一下也可以。这一次就是利用k-近邻算法实现手写数字的识别。
- 首先准备训练数据和测试数据:我的博客里面有这两个数据。
- 将图像数据:打开文件:将3232的图像转为11024的向量:
def img2vector(filename):
returnVect = zeros((1,1024))
fr = open(filename)
for i in range(32):
lineStr = fr.readline()
for j in range(32):
returnVect[0,32*i+j] = int(lineStr[j])
return returnVect
- 测试该转换函数,将一幅图像输入然后打印即可
- 编写训练模块:参数为当前向量,然后数据集,然后是标签,然后是k; 返回值是此向量所对应的类别,代码如下,用的是欧氏距离计算距离:
def classify0(inX, dataSet, labels, k):
dataSetSize = dataSet.shape[0]
diffMat = tile(inX, (dataSetSize,1)) - dataSet
sqDiffMat = diffMat**2
sqDistances = sqDiffMat.sum(axis=1)
distances = sqDistances**0.5
sortedDistIndicies = distances.argsort()
classCount={}
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
return sortedClassCount[0][0]
- 第四部实际上就是本项目的核心分类代码,体现了k-近邻算法的灵魂,接下来就是如何提取文件夹中的训练数据和测试数据进行训练和预测了;我们肯定要用到os模块的listdir函数进行文件目录的相关操作,对每一个文件都进行处理,最后生成一个数据集合标签集,输入到上面的分类函数中进行预测,代码如下:
def handwritingClassTest():
hwLabels = []
trainingFileList = listdir('trainingDigits') #load the training set
m = len(trainingFileList)
trainingMat = zeros((m,1024))
for i in range(m):
fileNameStr = trainingFileList[i]
fileStr = fileNameStr.split('.')[0] #take off .txt
classNumStr = int(fileStr.split('_')[0])
hwLabels.append(classNumStr)
trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr)
testFileList = listdir('testDigits') #iterate through the test set
errorCount = 0.0
mTest = len(testFileList)
for i in range(mTest):
fileNameStr = testFileList[i]
fileStr = fileNameStr.split('.')[0] #take off .txt
classNumStr = int(fileStr.split('_')[0])
vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
print "the classifier came back with: %d, the real answer is: %d" % (classifierResult, classNumStr)
if (classifierResult != classNumStr): errorCount += 1.0
print "\nthe total number of errors is: %d" % errorCount
print "\nthe total error rate is: %f" % (errorCount/float(mTest))
这里我们首先打开训练集,然后新建一个m行1024列的矩阵,然后对每一个文件进行转化处理,并且保存标签;最后,再遍历每一个测试文件,进行分类测试,并且根据文件名来进行预测和真实的比较,最后输出错误率。
- 分析程序实际效率:实际使用这个算法时,算法的执行效率并不高。因为算法需要为每个测试向量做2000次距离计算,每个距离计算包括了1024个维度浮点运算,总计要执行900次,此外,我们还需要为测试
向量准备2MB的存储空间。是否存在一种算法减少存储空间和计算时间的开销呢?k决策树就是
k-近邻算法的优化版,可以节省大量的计算开销。
参考文献-machine learning -peter harrington