实现mnist手写数字识别

>- **🍨 本文为[🔗365天深度学习训练营](https://mp.weixin.qq.com/s/xLjALoOD8HPZcH563En8bQ) 中的学习记录博客**
>- ** 参考文章:365天深度学习训练营-第5周:运动鞋品牌识别(训练营内部成员可读)**
>- **🍖 原作者:[K同学啊](https://mp.weixin.qq.com/s/xLjALoOD8HPZcH563En8bQ)**

一.项目介绍

本文是一个深度学习入门案例,基于卷积神经网络搭建简单的网络模型完成手写数字的识别

二.数据集

本数据集来自tensorflow自带的数据集中,当然你也可以去下载来进行导入

三.实战演练

一.数据集导入

import tensorflow as tf
from tensorflow.keras import datasets,layers,models
import matplotlib.pyplot as plt
#导入minist数据,按照训练集图片,训练集标签,测试集图片,测试集标签
(train_images,train_labels),(test_images,test_labels)=datasets.mnist.load_data()

二.归一化

数据归一化的作用:

1.统一不同量纲的特征处于同一数值量集,减少方差大的特征的影响,使模型更加准确

2.降低计算机的计算能力,加快算法收敛

#对像素的值标准化0到1区间,而灰度图像,每个像素值最大是255,最小是0,直接除以255就可以完成归一化
train_images,test_images=train_images/255.0,test_images/255.0
train_images.shape,test_images.shape,train_labels.shape,test_labels.shape
#输出数据维度

三.可视化图片

可视化前20张图片

#可视化数据集的前20个图片数据
#进行图像大小为20宽、10长的绘图
plt.figure(figsize=(20,10))
#遍历Minst数据集下标值0-49
for i in range(20):
    plt.subplot(2,10,i+1)
    plt.xticks([])
    plt.yticks([])
    plt.grid(False)
    plt.imshow(train_images[i],cmap=plt.cm.binary)
    plt.xlabel(train_labels[i])
plt.show()

调整图片格式

#调整数据到我们需要的格式
train_images=train_images.reshape((60000,28,28,1))
test_images=test_images.reshape((10000,28,28,1))
train_images.shape,test_images.shape,train_labels.shape,test_labels.shape

 四.搭建网络

  • 创建并设置卷积神经网络
  • 卷积层:通过卷积操作对输入图像进行降维和特征抽取
  • 池化层:是一个非线性形式的下采样。主要用于特征降维,压缩数据和参数的重要,减小过拟合,同样提高模型的鲁棒性
  • 全连接层:在经过几个卷积和池化层之后,神经网络中的高级推理通过全连接层进行完成
#创建并设置卷积神经网络
#卷积层:通过卷积操作对输入图像进行降维和特征抽取
#池化层:是一个非线性形式的下采样。主要用于特征降维,压缩数据和参数的重要,减小过拟合,同样提高模型的鲁棒性
#全连接层:在经过几个卷积和池化层之后,神经网络中的高级推理通过全连接层进行完成
model=models.Sequential([
    #设置二位卷积层1,设置一个32*32的卷积核,选择RelU未激活函数,设置input_shape适应输入的图片大小
    layers.Conv2D(32,(3,3),activation='relu',input_shape=(28,28,1)),
    layers.MaxPooling2D((2,2)),
    layers.Conv2D(64,(3,3),activation='relu'),
    layers.MaxPooling2D((2,2)),
    layers.Flatten(),
    layers.Dense(64,activation='relu'),
    layers.Dense(10)
])

五.编译模型 

设置优化器adam,设置优化器为Adam优化器

损失函数采取交叉熵函数,from_logits设置为True时,会将y_pred转化为概率(用softmax),否则不进行,一般进行最好,因为可以降低计算,也方便算法收敛

采取评价指标,在模型训练的时候监控列表里的评价指标

#编译模型
model.compile(
    optimizer='adam',
    loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
    metrics=['accuracy']
)

六.训练模型

这里输入训练数据集合训练标签、验证数据集,和迭代次数,迭代次数是这里可以改变的超参数

history=model.fit(
train_images,
train_labels,epochs=20,
validation_data=(test_images,test_labels))

训练截图如下:

最后的准确率达到了99.16%,这个数据集较为小,你可以自己尝试搭建

模型预测:

#预测
pre=model.predict(test_images)
pre[1]

 

如果你想使用看到具体对应的数字矩阵,可以对他进行

print(pre[1],"转换一下格式得到:",pre[1].argmax()) # 把one-hot码转换为数字

七.总结

上述的模型准确率还是不错的,训练了20个批次,用时间换来了一点准确率的提高。

当然,深度学习包含卷积神经网络和循环神经网络,一些著名的网络结构非常值得学习和研究。

你也可以使用其他的网结构来进行手写数字识别,也可以自己尝试着搭建网络。

注:如果想要设置设备使用CPU还是GPU,可以参考以下代码:

import tensorflow as tf
gpus=tf.config.list_physical_devices("GPU")
if gpus:
    gpus0=gpus[0]
    tf.config.experimental.set_memory_growth(gpu0,True)
    tf.config.set_visible_devices([gpus0],"GPU")

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

留学找浩浩

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值