一 实现思路
1. 加载 MNIST 数据集,得到训练集与测试集
2. 将训练集与测试集转换为DataSet对象
3. 将数据顺序打散
避免每次读取数据顺序相同,使得模型记住训练集的一些特点,降低模型泛化能力。
4. 设置批训练
从训练集总数中随机抽取batchsize个样本,来进行模型训练,相比于使用所用样本构建模型,批训练花费的时间更少,计算效率更高。每训练一个次,就叫一个step,当经历若干个step使得把训练集所有样本训练过以后,那叫一个epoch
5. 数据预处理
图片像素值进行标准化,使得处于0到1的区间
图片的类别转化成one-hot编码
图片的标签是数字0到数字10,是属于多分类问题,为了能够量化类别,将图片的类别转化成长度为10位数字的one-hot编码,便于和神经网络输出结果比较,计算其损失。
6. 神经网络构建
其主要的流程为:
设置学习率
网络结构参数初始化
计算前向传播
计算损失函数
计算梯度
根据梯度更新参数(梯度下降法)
每经过固定的step记录和输出训练误差,即均方根误差
每经过固定的step,输出测试误差,即分类正确率
二 实现方式
1.数据处理阶段
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import datasets # 导入经典数据集加载模块
# 1. 加载 MNIST 数据集
(x, y), (x_test, y_test) = datasets.mnist.load_data() # 返回数组的形状
# 2. 将数据集转换为DataSet对象,不然无法继续处理
train_db = tf.data.Dataset.from_tensor_slices((x, y))
# print(train_db) # <TensorSliceDataset shapes: ((28, 28), ()), types: (tf.uint8, tf.uint8)>
# 3. 将数据顺序打散
train_db = train_db.shuffle(10000) # 数字为缓冲池的大小
# print(train_db) # <ShuffleDataset shapes: ((28, 28), ()), types: (tf.uint8, tf.uint8)>
# 4. 设置批训练
train_db = train_db.batch(512) # batch size 为 128
# print(train_db) # <BatchDataset shapes: ((None, 28, 28), (None,)), types: (tf.uint8, tf.uint8)>
# 5. 预处理函数
def preprocess(x, y): # 输入x的shape 为[b, 32, 32], y为[b]
# 将像素值标准化到 0~1区间
x = tf.cast(x, dtype=tf.float32) / 255.
# 将图片改为28*28大小的
x = tf.reshape(