Keras-深度学习-神经网络-手写数字识别模型

目录

模型训练过程

①导入所需的库

②加载手写体数据集,将数据集分为训练集和测试集

③数据预处理

④构建模型

⑤编译模型

⑥训练模型

⑦使用测试集进行验证

⑧输出模型准确率和时间消耗

完整代码如下:


模型训练过程

使用到的数据集为IMDB电影评论情感分类数据集,该数据集包含 50,000 条电影评论,其中 25,000 条用于训练,25,000 条用于测试。每条评论被标记为正面或负面情感,因此该数据集是一个二分类问题。

我们构建一个包含嵌入层、全局平均池化层和输出层的神经网络,输入数据是一组英文电影评论,输出结果是二分类标签,即正面评价或负面评价。

其中,嵌入层将单词索引序列编码为连续的实数向量表示;全局平均池化层将这些向量取平均值去除位置信息,并将其映射到固定长度的向量中;输出层则使用 sigmoid 激活函数进行二分类预测。使用 Adam 优化器和二元交叉熵损失函数进行模型训练,并以准确率作为评估指标,共训练10轮,训练过程如图9所示。

图9 IMDB电影评论情感分析训练过程

训练出的电影评论情感分析模型在测试集上的准确率和损失随训练的轮次的变化如图10所示。

图10情感分析 准确率

具体数据如表5所示。

表5 情感分析

由结果可以知道,我们训练出来的电影评论情感分析模型,其数据的拟合效果和测试的泛化效果都比较理想。

①导入所需的库

从Keras库中导入mnist数据集、Sequential模型、Dense、Flatten、Conv2D、MaxPooling2D层以及np_utils工具。

from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Flatten, Conv2D, MaxPooling2D
from keras.utils import np_utils
import time

②加载手写体数据集,将数据集分为训练集和测试集

首先从Keras库中引入手写数字数据集MNIST,它是一个包含60,000个训练样本和10,000个测试样本的数据集。然后使用load_data()函数将MNIST数据集加载到程序中,并将数据集分为训练集和测试集,其中x_train、y_train为训练集,x_test、y_test为测试集。

# 加载手写体数据集,将数据集分为训练集和测试集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
start_time = time.perf_counter()

③数据预处理

由于神经网络只能够接受数值型数据,因此需要将手写数字图像转换为数据张量格式。在这个过程中,需要将每个图像转换为28x28的矩阵,并添加额外的一维来表示颜色通道。同时,由于图像数据的大小范围可能不同,进行归一化可以使所有的图像数据都落在[0,1]之间。归一化后,可以将数据集中所有值除以255,将其转换为float32类型。

对于图片的标签,将每个数字转化为10个输出,如0输出为1000000000,1输出为0100000000,3输出为0010000000。

# 将数据变为四维张量并归一化
x_train = x_train.reshape(x_train.shape[0], 28, 28, 1).astype('float32') / 255
x_test = x_test.reshape(x_test.shape[0], 28, 28, 1).astype('float32') / 255
# 将类别数据转换为 one-hot 编码
Y_train = np_utils.to_categorical(y_train, 10)
Y_test = np_utils.to_categorical(y_test, 10)

④构建模型

这里采用了Sequential模型,它是一系列层的线性堆叠。在模型中,首先添加一个卷积层Conv2D,用于提取图像特征。该层的参数有:filters=1,表示所用滤波器的数量;kernel_size=(3,3),表示滤波器的大小;activation='relu',表示使用ReLU激活函数。然后添加一个池化层MaxPooling2D,用于降采样,减少参数的数量。该层的参数pool_size=(2, 2),表示池化区域的大小。接下来添加一个Flatten层,将张量展平为一维向量,用于连接全连接层。最后添加一个全连接层Dense,它具有10个输出神经元,表示0~9这10个数字分类。该层的激活函数为softmax,用于输出每个分类的概率。

# 构建模型
model = Sequential()  # 定义一个序贯模型
# 卷积层
model.add(Conv2D(filters=1, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)))
# 池化层
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten())  # 一维化数据
# 全连接层
model.add(Dense(10, activation='softmax'))  # 添加一个全连接层,输出大小为10,激活函数为softmax

⑤编译模型

 在编译模型时,需要指定损失函数、优化器和评估指标。这里将损失函数设为交叉熵,优化器使用Adam算法,评估指标为准确率。

# 编译模型
model.compile(loss='categorical_crossentropy',  # 使用交叉熵作为损失函数
              optimizer='adam',  # 使用adam优化器进行训练
              metrics=['accuracy'])  # 在训练过程中监测模型的精度

⑥训练模型

使用fit()方法对构建好的神经网络进行训练,并迭代多次以逐渐优化模型。在这个过程中,需要输入训练数据和标签。同时,可以设置分批次训练和训练的轮数等参数,verbose可用于决定是否显示训练过程。

# 训练模型
history = model.fit(x_train, Y_train,  # 输入训练数据和标签
                    batch_size=128, epochs=5,  # 分批次训练,每个批次包含128个样本
                    verbose=1)  # 显示训练过程

⑦使用测试集进行验证

使用evaluate()方法对模型进行测试,并返回测试误差和测试准确率。

# 使用测试集进行验证
# 评估模型
score = model.evaluate(x_test, Y_test, verbose=0)  # 对模型进行测试并返回测试误差和测试准确率

⑧输出模型准确率和时间消耗

在训练结束后,输出模型在测试集上的准确率,并记录总的时间消耗。

# 记录结束时间
end_time = time.perf_counter()
print('Test accuracy:', score[1])  # 输出测试准确率
print('Time consumption:', end_time - start_time, 'seconds')

完整代码如下:

from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Flatten, Conv2D, MaxPooling2D
from keras.utils import np_utils
import time

# 加载手写体数据集,将数据集分为训练集和测试集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
start_time = time.perf_counter()
# 将数据变为四维张量并归一化
x_train = x_train.reshape(x_train.shape[0], 28, 28, 1).astype('float32') / 255
x_test = x_test.reshape(x_test.shape[0], 28, 28, 1).astype('float32') / 255
# 将类别数据转换为 one-hot 编码
Y_train = np_utils.to_categorical(y_train, 10)
Y_test = np_utils.to_categorical(y_test, 10)
# 构建模型
model = Sequential()  # 定义一个序贯模型
# 卷积层
model.add(Conv2D(filters=1, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)))
# 池化层
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten())  # 一维化数据
# 全连接层
model.add(Dense(10, activation='softmax'))  # 添加一个全连接层,输出大小为10,激活函数为softmax
# 编译模型
model.compile(loss='categorical_crossentropy',  # 使用交叉熵作为损失函数
              optimizer='adam',  # 使用adam优化器进行训练
              metrics=['accuracy'])  # 在训练过程中监测模型的精度
# 训练模型
history = model.fit(x_train, Y_train,  # 输入训练数据和标签
                    batch_size=128, epochs=5,  # 分批次训练,每个批次包含128个样本
                    verbose=1)  # 显示训练过程
# 使用测试集进行验证
# 评估模型
score = model.evaluate(x_test, Y_test, verbose=0)  # 对模型进行测试并返回测试误差和测试准确率
# 记录结束时间
end_time = time.perf_counter()
print('Test accuracy:', score[1])  # 输出测试准确率
print('Time consumption:', end_time - start_time, 'seconds')

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是一个基于 TensorFlow 的卷积神经网络手写数字图像识别的 Python 代码示例: ```python import tensorflow as tf from tensorflow.keras import layers # 加载 MNIST 手写数字数据集 mnist = tf.keras.datasets.mnist (x_train, y_train),(x_test, y_test) = mnist.load_data() # 将像素值缩放到 0~1 的范围内 x_train, x_test = x_train / 255.0, x_test / 255.0 # 定义模型 model = tf.keras.models.Sequential([ layers.Flatten(input_shape=(28, 28)), # 将输入的二维图像转换为一维向量 layers.Dense(128, activation='relu'), # 全连接层,128 个神经元,ReLU 激活函数 layers.Dropout(0.2), # Dropout 层,减少过拟合 layers.Dense(10, activation='softmax') # 输出层,10 个神经元,Softmax 激活函数 ]) # 编译模型 model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) # 训练模型 model.fit(x_train, y_train, epochs=5, validation_data=(x_test, y_test)) # 评估模型 model.evaluate(x_test, y_test) ``` 这个代码示例中,我们使用了一个简单的三层神经网络模型,包括一个 Flatten 层、一个全连接层和一个输出层。其中,Flatten 层将输入的二维图像数据转换为一维向量,全连接层包含 128 个神经元和 ReLU 激活函数,输出层包含 10 个神经元和 Softmax 激活函数。我们使用 sparse_categorical_crossentropy 作为损失函数,Adam 作为优化器,在训练过程中加入了 Dropout 层以减少过拟合。 训练完成后,我们使用 evaluate 方法对模型进行评估,输出测试集上的准确率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MaolinYe(叶茂林)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值