1、 手写数字图片数据集
手写数字图片数据集,它包含了0~9共10种数字的手写图片,采集自不同书写风格的真实手写图片,一共70000张图片。其中60000张图片作为训练集,用来训练模型,剩下10000张图片作为测试集,用来预测或者测试,训练集和测试集共同组成了整个MNIST数据集。
2、 模型搭建
(x, y), (x_val, y_val) = datasets.mnist.load_data() #加载MNIST数据集
x = tf.convert_to_tensor(x, dtype=tf.float32) / 255. #转换为浮点数
y = tf.convert_to_tensor(y, dtype=tf.int32) #转换为整形张量
y = tf.one_hot(y, depth=10) #one-hot 编码
print(x.shape, y.shape)
train_dataset = tf.data.Dataset.from_tensor_slices((x, y)) #构建数据集
train_dataset = train_dataset.batch(200) #批量训练
#利用Sequential容器封装3个网络层,前网络层的输出默认作为下一层的输入
model = keras.Sequential([
layers.Dense(512, activation='relu'),
layers.Dense(256, activation='relu'),
layers.Dense(10)])
optimizer = optimizers.SGD(learning_rate=0.001)
3、 模型训练
def train_epoch(epoch):
losses=[]
# Step4.loop
for step, (x, y) in enumerate(train_dataset):
with tf.GradientTape() as tape: #构建梯度记录环境
# 打平操作:[b, 28, 28] => [b, 784]
x = tf.reshape(x, (-1, 28*28))
# Step1. compute output
# [b, 784] => [b, 10]
out = model(x)
# Step2. compute loss
loss = tf.reduce_sum(tf.square(out - y)) / x.shape[0]
# Step3. 自动计算参数的梯度 w1, w2, w3, b1, b2, b3
grads = tape.gradient(loss, model.trainable_variables)
# w' = w - lr * grad 更新网络参数
optimizer.apply_gradients(zip(grads, model.trainable_variables))
if step % 100 == 0:
print(epoch, step, 'loss:', loss.numpy())
return loss
4、 模型运行
def train():
losses = []
for epoch in range(50):
loss=train_epoch(epoch)
losses.append(float(loss))
return losses
if __name__ == '__main__':
losses =train()
plt.figure()
x = [i for i in range(len(losses))]
plt.plot(x, losses, color='C0', marker='s', label='训练')
plt.ylabel('MSE')
plt.xlabel('Epoch')
plt.legend()
plt.savefig('train.png')
plt.show()
5、 MNIST数据集的训练误差曲线