MNIST手写数字识别项目因为数据量小、识别任务简单而成为图像识别入门的第一课,MNIST手写数字识别项目有如下特点:
识别难度低,即使把图片展开为一维数据,且只使用全连接层也能获得超过98%的识别准确度;
计算量小,不需要GPU加速也可以快速训练完成;
数据易得,教程易得。
本文中的数据来源于Kaggle网站,并非Pytorch自带的数据集(个人认为使用Pytorch封装好的MNIST数据集不利于入门)。接下来我们展示不同思路下的MNIST识别结果。
1. 将MNIST视为回归问题和分类问题的差别
一般来说,我们认为MNIST是一个图像分类问题,而非回归问题,因为图像的特征并没有随着0-9数字增大而显现出的对应的特征值变化关系,即图像中的像素值与数字没有表现出相关关系。
全连接回归模式(使用MSELoss)准确率:
全连接回归网络
排行榜上清一色的0.9以上,这个成绩真的拿不出手啊。
全连接分类模式(使用CrossEntropy)准确率:
全连接分类模式——两次迭代
全连接分类模式——两百次迭代
使用分类模式,仅需两次迭代就能达到0.93的准确率,并且200次迭代之后,准确率达到了0.97。
2. 卷积神经网络
将图片一维展开尚且能达到0.97的准确率,如果让图片保持原状,使用卷积神经网络来识别能够得到什么结果呢。
卷积神经网络准确率:
卷积神经网络准确率
项目包含两个py文件,mnist_models.py和main.py,下面是mnist_models.py中的源代码:
import torch as t
def to_image(data):
data = data.view(-1,1,28,28)
return data
class fc_net(t.nn.Module):
'''
全连接网络
'''
def __init__(self):
super(fc_net,self).__init__()
self.fc1 = t.nn.Sequential(t.nn.Linear(784,200),t.nn.ReLU())
self.fc2 = t.nn.Sequential(t.nn.Linear(200,100),t.nn.ReLU())
self.fc3 = t.nn.Sequential(t.nn.Linear(100,20),t.nn.ReLU())
self.fc4 = t.nn.Linear(20,10)
def forward(self,x):
x = self.fc1(x)
x = self.fc2(x)
x = self.fc3(x)
x = self.fc4(x)
return x
class conv_net(t.nn.Module):
'''
卷积网络,需先将数据转为2维图片形式
'''
def __init__(s