K近邻算法
机器学习算法是从数据中产生模型,也就是进行学习的算法。我们把经验提供给算法,它就能够根据经验数据产生模型。在面对新的情况时,模型就会为我们提供预测的结果。例如,识别数字,文字时,其实识别它们并不需要颜色,使用二值图像就行,而二值图像的数字文字都是0,1组成,机器学习会根据0与1的位置匹配最相近的文字或者数字,从而得出结果。而机器学习中的K近邻算法最适合识别图像中的文字或者数字信息。
K近邻算法又称为KNN算法,是非常经典的机器学习算法。其原理非常简单:对于一个新样本,这里可以理解为一个新数字图像或文字图像,K近邻算法会在已有数据中寻找与它最相似的K个数据,或者说离它最近的K个数据,如果这K个数据大多数属于某个类别,则该样本也属于这个类别。
识别数字
在OpenCV-Python开发指南的第一篇我们就介绍了二值图像,二值图像可以区分形状已经物体大概的轮廓。如下图所示:
这里的图像A就是0和1的矩阵集合,数字1代表有颜色的地方,数字0代表无颜色的地方。
这里,我们提供给机器学习的样本数据为1024个元素的一维数组,通过Excel表格提供,而图像是一个矩阵并不是一维数组。所以,在处理原始图像时,我们需要将图片的矩阵数据转换为一维数组,以便于机器学习的匹配预测。
调整图像
首先,我们需要识别的数字图像可能并不是一个二值图像,甚至可能不是一个灰度图像。所以我们需要将其转换为二值图像。
其次,OpenCV转换的二值图像是一个矩阵,而机器学习训练的数据是一个1024长度的一维数组。所以,我们还需要将图像缩小为32*32像素的图像,这样其转换为一维数组才是1024个0,1数据。
具体代码如下:
import cv2
img = cv2.imread("40.jpg")