python识别手写数字knn_python使用KNN算法识别手写数字

# -*- coding: utf-8 -*-

#pip install numpy

import os

import os.path

from numpy import *

import operator

import time

from os import listdir

"""

描述:

KNN算法实现分类器

参数:

inputPoint:测试集

dataSet:训练集

labels:类别标签

k:K个邻居

返回值:

该测试数据的类别

"""

def classify(inputPoint,dataSet,labels,k):

dataSetSize = dataSet.shape[0] #已知分类的数据集(训练集)的行数

#先tile函数将输入点拓展成与训练集相同维数的矩阵,再计算欧氏距离

diffMat = tile(inputPoint,(dataSetSize,1))-dataSet #样本与训练集的差值矩阵

# print(inputPoint);

sqDiffMat = diffMat ** 2 #sqDiffMat 的数据类型是nump提供的ndarray,这不是矩阵的平方,而是每个元素变成原来的平方。

sqDistances = sqDiffMat.sum(axis=1) #计算每一行上元素的和

# print(sqDistances);

distances = sqDistances ** 0.5 #开方得到欧拉距离矩阵

# print(distances);

sortedDistIndicies = distances.argsort() #按distances中元素进行升序排序后得到的对应下标的列表,argsort函数返回的是数组值从小到大的索引值

# print(sortedDistIndicies);

# classCount数据类型是这样的{0: 2, 1: 2},字典key:value

classCount = {}

# 选择距离最小的k个点

for i in range(k):

voteIlabel = labels[ sortedDistIndicies[i] ]

# print(voteIlabel)

# 类别数加1

classCount[voteIlabel] = classCount.get(voteIlabel,0)+1

print(classCount)# {1: 1, 7: 2}

#按classCount字典的第2个元素(即类别出现的次数)从大到小排序

sortedClassCount = sorted(classCount.items(), key = operator.itemgetter(1), reverse = True)

print(sortedClassCount)# [(7, 2), (1, 1)]

return sortedClassCount[0][0]

"""

描述:

读取指定文件名的文本数据,构建一个矩阵

参数:

文本文件名称

返回值:

一个单行矩阵

"""

def img2vector(filename):

returnVect = []

fr = open(filename)

for i in range(32):

lineStr = fr.readline()

for j in range(32):

returnVect.append(int(lineStr[j]))

return returnVect

"""

描述:

从文件名中解析分类数字,比如由0_0.txt得知这个文本代表的数字分类是0

参数:

文本文件名称

返回值:

一个代表分类的数字

"""

def classnumCut(fileName):

fileStr = fileName.split('.')[0]

classNumStr = int(fileStr.split('_')[0])

return classNumStr

"""

描述:

构建训练集数据向量,及对应分类标签向量

参数:

返回值:

hwLabels:分类标签矩阵

trainingMat:训练数据集矩阵

"""

def trainingDataSet():

hwLabels = []

trainingFileList = listdir('trainingDigits') #获取目录内容

m = len(trainingFileList)

# zeros返回全部是0的矩阵,参数是行和列

trainingMat = zeros((m,1024)) #m维向量的训练集

for i in range(m):

# print (i);

fileNameStr = trainingFileList[i]

hwLabels.append(classnumCut(fileNameStr))

trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr)

return hwLabels,trainingMat

"""

描述:

主函数,最终打印识别了多少个数字以及识别的错误率

参数:

返回值:

"""

def handwritingTest():

"""

hwLabels,trainingMat 是标签和训练数据,

hwLabels 是一个一维矩阵,代表每个文本对应的标签(即文本所代表的数字类型)

trainingMat是一个多维矩阵,每一行都代表一个文本的数据,每行有1024个数字(0或1)

"""

hwLabels,trainingMat = trainingDataSet() #构建训练集

testFileList = listdir('testDigits') #获取测试集

errorCount = 0.0 #错误数

mTest = len(testFileList) #测试集总样本数

t1 = time.time()

for i in range(mTest):

fileNameStr = testFileList[i]

classNumStr = classnumCut(fileNameStr)

# img2vector返回一个文本对应的一维矩阵,1024个0或者1

vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)

#调用knn算法进行测试

classifierResult = classify(vectorUnderTest, trainingMat, hwLabels, 3)

# 打印测试出来的结果和真正的结果,看看是否匹配

print ("the classifier came back with: %d, the real answer is: %d" % (classifierResult, classNumStr))

# 如果测试出来的值和原值不相等,errorCount+1

if (classifierResult != classNumStr):

errorCount += 1.0

print("\nthe total number of tests is: %d" % mTest) #输出测试总样本数

print ("the total number of errors is: %d" % errorCount ) #输出测试错误样本数

print ("the total error rate is: %f" % (errorCount/float(mTest))) #输出错误率

t2 = time.time()

print ("Cost time: %.2fmin, %.4fs."%((t2-t1)//60,(t2-t1)%60) ) #测试耗时

"""

描述:

指定handwritingTest()为主函数

"""

if __name__ == "__main__":

handwritingTest()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数字识别是机器学习中经典的问题之一,KNN(K-最近邻)算法是一种常用的分类算法。下面给出基于Python数字识别KNN算法的实现过程。 1. 数据集准备 首先,我们需要一个数字的数据集。MNIST数据集是一个经典的数字数据集,可以从http://yann.lecun.com/exdb/mnist/下载。下载后,将数据集解压缩到本地文件夹中。 2. 数据预处理 将数据集中的图片转换成向量形式,以便于计算机处理。这里我们将每张图片转换成一个784维的向量(28*28像素),并将像素值归一化到[0,1]范围内。 ```python import os import struct import numpy as np def load_mnist(path, kind='train'): labels_path = os.path.join(path, '%s-labels-idx1-ubyte' % kind) images_path = os.path.join(path, '%s-images-idx3-ubyte' % kind) with open(labels_path, 'rb') as lbpath: magic, n = struct.unpack('>II', lbpath.read(8)) labels = np.fromfile(lbpath, dtype=np.uint8) with open(images_path, 'rb') as imgpath: magic, num, rows, cols = struct.unpack('>IIII', imgpath.read(16)) images = np.fromfile(imgpath, dtype=np.uint8).reshape(len(labels), 784) return images, labels X_train, y_train = load_mnist('mnist/', kind='train') X_test, y_test = load_mnist('mnist/', kind='t10k') # 数据归一化 X_train = X_train / 255.0 X_test = X_test / 255.0 ``` 3. KNN算法实现 KNN算法的基本思路是:对于一个未知样本,计算它与训练集中每个样本的距离,选择距离最近的K个样本,将它们的标签作为预测结果。 ```python from collections import Counter def knn(X_train, y_train, X_test, k): pred_labels = [] for i in range(len(X_test)): # 计算测试样本与训练集样本的距离 distances = np.sqrt(np.sum((X_train - X_test[i])**2, axis=1)) # 选择距离最近的K个样本 nearest = np.argsort(distances)[:k] # 统计K个样本的标签 counter = Counter(y_train[nearest]) # 将出现次数最多的标签作为预测结果 pred_labels.append(counter.most_common(1)[0][0]) return pred_labels ``` 4. 测试效果 将KNN算法应用到数字识别问题上,测试其效果。 ```python pred_labels = knn(X_train, y_train, X_test[:100], 5) accuracy = np.sum(pred_labels == y_test[:100]) / len(y_test[:100]) print('Accuracy:', accuracy) ``` 输出结果如下: ``` Accuracy: 0.97 ``` 可以看出,KNN算法数字识别问题上的表现还是比较不错的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值