C/C++实现手写数字识别,分别处理 32*32 文本数据集和mnist 28*28 png数据集

绝大多数人都是用python写,俺就喜欢用C/C++一句一句写。代码还未认真整理,写的有点乱,应该还有优化的余地。

程序主要目的:对测试数据集的样本进行预测,计算预测准确率。

数据集:分别使用32*32数据集和28*28数据集(mnist数据集)。前者是txt文本,后者是png图片。

算法:使用最简单的KNN算法。

加快程序执行的主要思路:

1.使用多线程(10个线程)读取0到9数字对应的样本文件;

2.使用多线程(10个线程)对0到9数字对应的样本进行预测;

3.求距离时,使用欧式距离,但是不做开平方运算(开平方运算是多余的,浪费时间);

4.求K个最近距离邻居(类似于求TOP K),采用C++的push_heap和pop_heap(小根堆)。

对于32*32的数据集,由于样本是txt文件,直接读取txt文件中的0和1,很容易求出样本之间的距离。

对于mnist数据集,因为原始数据是png图片,所以需要做一些预处理:可以使用opencv读取像素数据,转成类似于32*32的txt数据集,方便求距离。另外,方便程序处理,重命名了文件名,文件名分别是0_0.txt,0_1.txt……,转换成txt文件的mnist数据集如下:

简便起见,对样本个数做了一些简化,32*32数据集的训练数据是180*10=1800个,测试数据是80*10=800个,mnist数据集的训练数据是5000*10=5万个,测试数据是800*10=8千个(原始测试样本是1万个,每个数字的测试样本个数不同)。从数据量对比来看,后者是前者的280倍(训练数据集是28倍,测试数据集是10倍),对应的程序运行时间(计算测试样本的预测准确率)后者也是前者的200多倍(排序算法很重要,如果不使用小根堆求TOP K,而是使用传统的整体数据排序,估计运行速度会差很多)。

部分代码如下(代码还未整理,比较乱,暂时只贴主要代码,表明整体思路),具体代码回头整理好了再贴。

#define TrainingDataNum 50000	
#define TestDataNum 8000		
#define FeatureNum 784    //28*28	
#define ClassNum 10
#define FileMaxCol 40    //大于28
#define K 3

//……………………

struct DisAndLabel
{
	int distance;
	int classLabel;
};

bool Cmp(const DisAndLabel& a, const DisAndLabel& b)
{
	return a.distance < b.distance;
}

int FileToTrainingDataArray(int** pTrainingDataFeture, int* pTrainingDataClass, int tid);
int FileToTestDataArray(int** pTestDataFeture, int* pTestDataClass, int tid);
void ClassifyTest(int** pTestDataFeture, int** pTrainingDataFeture, int* pTestDataClass, int* pTrainingDataClass, int tid);

//……………………

int main()
{
	clock_t t1, t2, t3, t4, t5;
	t1 = clock();

	int** pTrainingDataFeture = new int* [TrainingDataNum];
	if (pTrainingDataFeture == NULL)
	{
		exit(-1);
	}

	for (int i = 0; i < TrainingDataNum; i++)
	{
		pTrainingDataFeture[i] = new int[FeatureNum + 1];
		if (pTrainingDataFeture[i] == NULL)
		{
			exit(-1);
		}
	}
	
	//……………………

	t2 = clock();
	double duration = (double(t2) - double(t1)) / CLOCKS_PER_SEC;
	cout << "分配内存:" << duration << "秒" << endl;
	
	//……………………

	thread td[10];

	for (int tid = 0; tid < 10; tid++)
	{
		td[tid] = thread(&FileToArrayThread, pTrainingDataFeture, pTrainingDataClass, pTestDataFeture, pTestDataClass, tid);
	}

	for (int tid = 0; tid < 10; tid++)
	{
		td[tid].join();
	}
	
	//……………………
	
	int errorCountTotal = 0;

	for (int i = 0; i < 10; i++)
	{
		errorCountTotal += errorCount[i];
	}

	cout << "*********************************************************" << endl;
	cout << "测试集测试结果:" << endl;
	cout << "k=" << K << endl;
	cout << "测试集样本个数:" << TestDataNum << endl;
	cout << "预测错误个数:" << errorCountTotal << endl;
	cout << "错误率:" << double(errorCountTotal * 100.0 / TestDataNum) << "%" << endl;
	cout << "正确率:" << 100.0 - double(errorCountTotal * 100.0 / TestDataNum) << "%" << endl;
	//cout << "*********************************************************" << endl;

	t4 = clock();
	duration = (double(t4) - double(t3)) / CLOCKS_PER_SEC;
	cout << "*********************************************************" << endl;
	cout << "8000个样本预测准确率分析:" << duration << "秒" << endl;

	duration = (double(t4) - double(t1)) / CLOCKS_PER_SEC;
	cout << "*********************************************************" << endl;
	cout << "总共用时:" << duration << "秒" << endl;
	
	//……………………
}

运行结果如下:

K=3时,8000个测试样本,预测错误了78个(其实算法没有问题,很多情况是因为测试样本里的数字写的太奇葩了,数字X实在不像数字X),下面把K改为5,准确率提高了一些。

从运行时间看,8000个样本的预测用时是5秒多,如果只预测一个样本,用时大概是5.4秒/8000=0.7毫秒,主要是训练数据集数据有点多(5万个样本)。

下面是32*32数据集的运行结果,由于训练样本和测试样本的数据量比mnist数据集少很多,所以程序运行速度快了200倍,平均每个样本的预测时间大概是0.03秒/800=0.04毫秒。

程序总共用时不到50毫秒(用python写,貌似要10秒左右),比python快了200倍。C语言直接操作内存+高速缓存+宇宙第一IDE的代码优化+多线程,运行速度比python快2个数据级很正常。但是代码量也比python多很多,一般2到3倍,如果python是直接调算法库,比python多10倍以上 -_-。

样本预测错误的具体原因是什么,可以分析K个最近样本的距离值,以数字8(预测错误的重灾区)为例:

  • 7
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
实现手写数字识别的方法有很多种,其中朴素贝叶斯算法是一种常用的方法之一。下面是基于MNIST数据集实现手写数字识别的matlab代码,使用朴素贝叶斯算法: ```matlab % 读取MNIST数据集 [train_images, train_labels] = mnist_parse('train-images.idx3-ubyte', 'train-labels.idx1-ubyte'); [test_images, test_labels] = mnist_parse('t10k-images.idx3-ubyte', 't10k-labels.idx1-ubyte'); % 转换为灰度图像 train_images_gray = reshape(train_images, size(train_images,1)*size(train_images,2), size(train_images,3))'; test_images_gray = reshape(test_images, size(test_images,1)*size(test_images,2), size(test_images,3))'; % 将像素值归一化到[0,1] train_images_norm = double(train_images_gray) / 255; test_images_norm = double(test_images_gray) / 255; % 训练朴素贝叶斯分类器 nb_classifier = fitcnb(train_images_norm, train_labels); % 预测测试集 test_labels_pred = predict(nb_classifier, test_images_norm); % 计算准确率 accuracy = sum(test_labels_pred == test_labels) / length(test_labels); fprintf('Accuracy: %.2f%%\n', accuracy * 100); ``` 在上述代码中,我们首先使用`mnist_parse`函数读取MNIST数据集,并将图像转换为灰度图像,然后将像素值归一化到[0,1]。接着使用`fitcnb`函数训练朴素贝叶斯分类器,并使用`predict`函数预测测试集的标签。最后计算准确率并输出结果。 需要注意的是,MNIST数据集的格式有点特殊,需要使用`mnist_parse`函数进行解析。此外,朴素贝叶斯算法的优点是易于实现和快速训练,但是在一些复杂的分类问题上可能表现不佳。如果需要更高的准确率,可以尝试其他分类算法,比如支持向量机(SVM)和深度学习算法
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值