这个项目将使用MNIST数据集,该数据集包含手写数字(0到9)的图像。项目的目标是使用一个全连接神经网络模型来对这些图像进行分类。代码将包含详细注释,以帮助你理解每一步的流程。
项目概述
- 数据集: MNIST数据集,包含60000张训练图片和10000张测试图片,每张图片是28x28像素的手写数字。
- 目标: 构建一个全连接神经网络,输入是手写数字的图片,输出是该图片代表的数字(0到9)的分类结果。
# 导入必要的库
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.keras.datasets import mnist
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Flatten
from tensorflow.keras.utils import to_categorical
# 1. 加载MNIST数据集
# Keras自带的MNIST数据集,可以直接加载
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# 2. 数据预处理
# 将图像数据归一化到[0, 1]区间,并将标签进行One-Hot编码
x_train = x_train.astype('float32') / 255
x_test = x_test.astype('float32') / 255
y_train = to_categorical(y_train, 10)
y_test = to_categorical(y_test, 10)
# 3. 构建全连接神经网络模型
model = Sequential([
Flatten(input_shape=(28, 28)), # 将28x28的图像展平成784维的向量
Dense(128, activation='relu'), # 第一个全连接层,包含128个神经元,使用ReLU激活函数
Dense(64, activation='relu'), # 第二个全连接层,包含64个神经元,使用ReLU激活函数
Dense(10, activation='softmax') # 输出层,包含10个神经元,对应0-9的分类,使用Softmax激活函数
])
# 4. 编译模型
# 使用交叉熵损失函数和Adam优化器,并评估模型的准确率
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
# 5. 训练模型
# 使用训练数据训练模型,设置训练轮数为10
model.fit(x_train, y_train, epochs=10, batch_size=32, validation_split=0.2)
# 6. 评估模型
# 在测试集上评估模型的性能
test_loss, test_acc = model.evaluate(x_test, y_test)
print(f"Test accuracy: {test_acc}")
# 7. 可视化部分预测结果
predictions = model.predict(x_test)
# 显示前5张测试图片及其预测结果
for i in range(5):
plt.imshow(x_test[i], cmap='gray')
plt.title(f"True: {np.argmax(y_test[i])}, Predicted: {np.argmax(predictions[i])}")
plt.show()
代码解释
- 加载MNIST数据集: 使用
mnist.load_data()
函数加载手写数字的图像和标签。 - 数据预处理: 对图像数据进行归一化处理,将像素值从0-255缩放到0-1之间,并对标签进行One-Hot编码。
- 构建模型: 使用
Sequential
模型,依次添加一个展平层和三个全连接层,其中两个隐层使用ReLU激活函数,输出层使用Softmax激活函数进行多分类。 - 编译模型: 使用
categorical_crossentropy
作为损失函数,adam
作为优化器,并评估模型的准确率。 - 训练模型: 使用训练数据训练模型,设置10个训练轮数,并在20%的训练数据上进行验证。
- 评估模型: 使用测试数据集评估模型的性能,输出测试集的准确率。
- 可视化预测结果: 随机选择5张测试图片,显示真实标签和预测标签。