基于k近邻(KNN)的手写数字识别

作者:faaronzheng 转载请注明出处!

最近再看Machine Learning in Action. k近邻算法这一章节提供了不少例子,本着Talk is cheap的原则,我们用手写数字识别来实际测试一下。 简单的介绍一下k近邻算法(KNN):给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测。如下图所示:


x为测试样本,小黑点是一类样本,小红点是另一类样本。在测试样本x的周围画一个圈,这个圈就是依据某种距离度量画出的,可以看到我们选择的是5近邻。现在我们要做出一个预测,就是这个测试样本x是属于小黑点那一类还是小红点那一类呢?很简单,我们只要看看选中的近邻中哪一类样本多就把这类样本的标签赋给测试样本就可以了。图中自然就是小黑点,所以我们预测x是小黑点。


正文:

第一步:准备实验数据。Machine Learning in Action书中的数据使用的是“手写数字数据集的光学识别”一文中的数据。具体可以参考书中的相关介绍。所有的数据是以Txt形式保存的,由32行32列的0/1元素组成。下图就是一个手写数字0的保存数据。可以看出,数字所在的位置用1表示,空白的用0表示。

除此之外,为了能识别自己手写的数字,我们在原来实验的基础上添加画板的功能,使其能采集自己手写的数字并按照相同的格式保存下来。如下图所示,当点击CustomizeTestData后会出现一个画板,当我们在画板上写上数字后,按下ESC键保存图片并退出,接下来将保存的图片处理成我们想要的格式,就可以用算法对其进行预测了。画板的实现使用了pygame。


下面是画板功能的具体实现:

import pygame
from pygame.locals import *
import math
from sys import exit
#向sys模块借一个exit函数用来退出程序
pygame.init()
#初始化pygame,为使用硬件做准备
 
class Brush():
 def __init__(self, screen):
  self.screen = screen
  self.color = (0, 0, 0)
  self.size = 4
  self.drawing = False
  self.last_pos = None
  self.space = 1
  # if style is True, normal solid brush
  # if style is False, png brush
  self.style = False
  # load brush style png
  self.brush = pygame.image.load("brush.png").convert_alpha()
  # set the current brush depends on size
  self.brush_now = self.brush.subsurface((0,0), (1, 1))
 
 def start_draw(self, pos):
  self.drawing = True
  self.last_pos = pos
 def end_draw(self):
  self.drawing = False
 
 def set_brush_style(self, style):
  print "* set brush style to", style
  self.style = style
 def get_brush_style(self):
  return self.style
 
 def get_current_brush(self):
  return self.brush_now
 
 def set_size(self, size):
  if size < 0.5: size = 0.5
  elif size > 32: size = 32
  print "* set brush size to", size
  self.size = size
  self.brush_now = self.brush.subsurface((0,0), (size*2, size*2))
 def get_size(self):
  return self.size
 
 def set_color(self, color):
  self.color = color
  for i in xrange(self.brush.get_width()):
   for j in xrange(self.brush.get_height()):
    self.brush.set_at((i, j),
      color + (self.brush.get_at((i, j)).a,))
 def get_color(self):
  return self.color
 
 def draw(self, pos):
  if self.drawing:
   for p in self._get_points(pos):
    # draw eveypoint between them
    if self.style == False:
     pygame.draw.circle(self.screen, self.color, p, self.size)
    else:
     self.screen.blit(self.brush_now, p)
 
   self.last_pos = pos
 
 def _get_points(self, pos):
  """ Get all points between last_point ~ now_point. """
  points = [ (self.last_pos[0], self.last_pos[1]) ]
  len_x = pos[0] - self.last_pos[0]
  len_y = pos[1] - self.last_pos[1]
  length = math.sqrt(len_x ** 2 + len_y ** 2)
  step_x = len_x / length
  step_y = len_y / length
  for i in xrange(int(length)):
   points.append(
     (points[-1][0] + step_x, points[-1][1] + step_y))
  points = map(lambda x:(int(0.5+x[0]), int(0.5+x[1])), points)
  # return light-weight, uniq integer point list
  return list(set(points))
 
class Menu():
 def __init__(self, screen):
  self.screen = screen
  self.brush = None

 def set_brush(self, brush):
  self.brush = brush

 
class Painter():
 def __init__(self):
  self.screen = pygame.display.set_mode((100, 100))
 # self.menu = pygame.display.set_mode((80, 600))
  pygame.display.set_caption("Painter")
  self.clock = pygame.time.Clock()
  self.brush = Brush(self.screen)
  self.menu = Menu(self.screen)
  self.menu.set_brush(self.brush)
 
 def run(self):
  self.screen.fill((255, 255, 255))
  while True:
   # max fps limit
   self.clock.tick(30)
   for event in pygame.event.get():
    if event.type == QUIT:
        pygame.quit()
     #   break
    elif event.type == KEYDOWN:
     # press esc to clear screen
     if event.key == K_ESCAPE:
      fname = "test.png"
      pygame.image.save(self.screen, fname)    
      pygame.quit()
      #break
    elif event.type == MOUSEBUTTONDOWN:
     # <= 74, coarse judge here can save much time
     if ((event.pos)[0] <= 74 and
       self.menu.click_button(event.pos)):
      # if not click on a functional button, do drawing
      pass
     else:
      self.brush.start_draw(event.pos)
    elif event.type == MOUSEMOTION:
     self.brush.draw(event.pos)
    elif event.type == MOUSEBUTTONUP:
     self.brush.end_draw()
    self.menu.draw()
    pygame.display.update()

KNN算法--KNN的关键在我看来是距离度量的选择。不同的距离度量会对最终的结果产生比较大的影响。首先将手写数字变化为一个一维的向量,通过计算测试样例(向量)和每个训练样本(向量)之间的距离然后进行排序。最后选最近的k个进行投票产生对测试样例的预测。


import pygame
from numpy import *
import operator
from os import listdir
from Board import *
import Tkinter
import tkFileDialog
import tkMessageBox
import Image  
from KNN import dot
pygame.init()


def classify0(inX, dataSet, labels, k):           #k控制选取最近的k个近邻然后投票
    dataSetSize = dataSet.shape[0]
    #计算欧式距离(其实比较的是两个向量之间的距离)
    diffMat = tile(inX, (dataSetSize,1)) - dataSet
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort()     
    classCount={}          
    #投票
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0]
def classify1(inX,dataSet,labels, k):
 dataSetSize = dataSet.shape[0]
 diffMat = tile(inX, (dataSetSize,1)) - dataSet
 diffMatT=(diffMat.T)
 sqDiffMat = dot(diffMat,diffMat.T)
 distances = sqrt(sqDiffMat)   
 sortedDistIndicies=distances.argsort() 
 classCount={}         
#投票
 for i in range(k):
    voteIlabel = labels[sortedDistIndicies[i]]
    classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
 sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
 return sortedClassCount[0][0]
# 将文件转化为向量
def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0,32*i+j] = int(lineStr[j])
    return returnVect

def handwritingClassTest(TrainDataPath):
    hwLabels = []
    trainingFileList = listdir(TrainDataPath)           #load the training set
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]     #take off .txt
        classNumStr = int(fileStr.split('_')[0])
        hwLabels.append(classNumStr)
        trainingMat[i,:] = img2vector(TrainDataPath+'/%s' % fileNameStr)
    testFileList = listdir('C:/Users/HP/Desktop/MLiA_SourceCode/machinelearninginaction/Ch02/testDigits')        #iterate through the test set
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]     #take off .txt
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('C:/Users/HP/Desktop/MLiA_SourceCode/machinelearninginaction/Ch02/testDigits/%s' % fileNameStr)
        classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
        print "the classifier came back with: %d, the real answer is: %d" % (classifierResult, classNumStr)
        if (classifierResult != classNumStr): errorCount += 1.0
    print "\nthe total number of errors is: %d" % errorCount
    print "\nthe total error rate is: %f" % (errorCount/float(mTest))

top = Tkinter.Tk()

def TrainDataCallBack():
    TrainDataPath=tkFileDialog.askdirectory()
    handwritingClassTest(TrainDataPath)

def CustomizeTestDataCallBack():
    board = Painter()
    board.run()
    
def TestingCustomizeTestDataCallBack():
    ResizePic()
    TransformArray()
TrainDataButton = Tkinter.Button(top, text ="TrainData", command = TrainDataCallBack)
CustomizeTestDataButton = Tkinter.Button(top, text ="CustomizeTestData", command = CustomizeTestDataCallBack)
TestingButton = Tkinter.Button(top, text ="TestingCustomizeTestData", command = TestingCustomizeTestDataCallBack)

def ResizePic():
    im = Image.open("test.png")  
    w,h = im.size  
    im_ss = im.resize((int(32), int(32)))  
    im_ss.save("test.png")  

def TransformArray():
    TestArray = zeros((1,1024))
    im = Image.open("test.png")  
    width,height = im.size  
    for h in range(0, height):  
      for w in range(0, width):  
        pixel = im.getpixel((w, h))      
        if pixel!=(255,255,255):
            TestArray[0,32*h+w]=int(1)
    handwritingTesting(TestArray)


def handwritingTesting(TestArray):
  #  TrainDataPath=tkFileDialog.askdirectory()
    TrainDataPath="C:/Users/HP/Desktop/MLiA_SourceCode/machinelearninginaction/Ch02/trainingDigits"
    hwLabels = []
    trainingFileList = listdir(TrainDataPath)           #load the training set
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]     #take off .txt
        classNumStr = int(fileStr.split('_')[0])
        hwLabels.append(classNumStr)
        trainingMat[i,:] = img2vector(TrainDataPath+'/%s' % fileNameStr)      
    classifierResult = classify0(TestArray, trainingMat, hwLabels, 100)
    classifierResult1 = classify1(TestArray, trainingMat, hwLabels, 100)
    print "the classifier came back with: %d"  %  classifierResult
    print "the classifier came back with: %d"  %  classifierResult1
       
TrainDataButton.pack()
CustomizeTestDataButton.pack()
TestingButton.pack()
top.mainloop()



源代码下载:faaron-KNN手写字识别



这里面我们采用了很笨的方法将测试样本与所有训练样本进行比较,更有效的方法是采用KD树。另外k的取值在这里也是固定的,更好的方法是在一个区间内网格搜索~


未完待续。。。

  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 基于Matlab的knn手写数字识别是一种基于机器学习的算法,用于对手写数字进行分类。首先,我们需要准备一个训练集,其中包含一系列手写数字的样本数据和对应的标签,用于训练模型。 接下来,我们需要计算新输入的图像与训练集中每个样本图像之间的距离。这里一般使用欧式距离或曼哈顿距离作为距离度量方法。然后,我们可以根据距离的大小来选择最邻近的k个样本图像。 在找到最邻近的k个样本图像后,我们可以根据这k个样本图像的标签来对新输入的图像进行分类。一种常见的方法是投票机制,即选择出现次数最多的标签作为新输入图像的分类结果。 最后,我们可以使用一些评价指标来评估我们的模型的性能,如准确率、召回率、F1分数等。 总之,基于Matlab的knn手写数字识别算法是一个简单且有效的分类算法,它可以用于识别手写数字并具有广泛的应用前景。 ### 回答2: 基于MATLAB的KNN手写数字识别是一种基于K最近邻算法的机器学习方法。其主要步骤包括:数据预处理、训练模型和测试模型。 首先,我们需要准备手写数字数据集,并进行一些数据预处理操作。这些操作可以包括图像的灰度化、二值化、降噪等。然后,将数据集分为训练集和测试集,以训练集来训练模型,同时使用测试集验证模型的准确性。 然后,我们使用K最近邻算法训练模型。这个算法的基本思想是,对于一个未知样本,我们通过计算它与训练集中样本之间的距离,找出与之最近的K个样本,然后根据这K个样本的标签来判断未知样本的分类。 最后,我们对模型进行测试。将测试集中的样本输入到模型中,并使用K最近邻算法进行分类预测。通过比较预测结果和真实标签,我们可以计算出模型的准确率。 在MATLAB中,我们可以使用相关的函数和工具箱来实现这一过程。例如,使用Image Processing Toolbox进行数据预处理,使用Classification Learner应用程序进行训练和测试。 通过上述步骤,我们可以得到一个基于MATLAB的KNN手写数字识别模型。这个模型可以对手写数字进行识别,并输出相应的分类结果。这种方法在实践中已经得到广泛应用,可以应用于各种手写字符识别的场景。 ### 回答3: 基于MATLAB的k-近邻算法(KNN)可以用于识别手写数字。KNN是一种无监督学习算法,能够根据邻居的标签来进行分类。 首先,我们需要准备一个手写数字的数据集。常用的数据集是MNIST,包含训练集和测试集。训练集用于训练KNN模型,而测试集用于评估模型的性能。 在MATLAB中,可以使用load函数加载MNIST数据集。接着,我们需要提取特征。对于手写数字,常用的特征是图像的像素值。我们可以将每个图像展平,并将像素值存储在特征矩阵中。 接下来,我们可以使用fitcknn函数来训练KNN模型。这个函数可以指定K值(即考虑的邻居数),并通过计算每个测试样本与训练样本之间的距离来分类新的样本。我们可以选择适当的K值来获得更好的分类结果。 训练好KNN模型后,我们可以使用predict函数来对新的手写数字进行分类。该函数会根据最近邻居的标签来预测测试样本的标签。 最后,我们可以使用confusionmat函数来评估分类器的性能。该函数可以生成混淆矩阵,用于计算模型在不同类别上的分类准确率、召回率和F1值。 综上所述,基于MATLAB的KNN手写数字识别可以通过加载数据集、提取特征、训练模型、分类新的样本和评估性能来完成。这是一个简单而有效的方法,可以用于手写数字识别等许多应用领域。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值