TF2.0图像分类实战(一)Lenet

关于Lenet的理论方面,请参考:https://cuijiahua.com/blog/2018/01/dl_3.html

大名鼎鼎的LeNet5 诞生于1994年,是最早的深层卷积神经网络之一,并且推动了深度学习的发展。从1988年开始,在多次成功的迭代后,这项由Yann LeCun完成的开拓性成果被命名为LeNet5。

LeCun认为,可训练参数的卷积层是一种用少量参数在图像的多个位置上提取相似特征的有效方式,这和直接把每个像素作为多层神经网络的输入不同。像素不应该被使用在输入层,因为图像具有很强的空间相关性,而使用图像中独立的像素直接作为输入则利用不到这些相关性。

LeNet5当时的特性有如下几点。

每个卷积层包含三个部分:卷积、池化和非线性激活函数

使用卷积提取空间特征

降采样(Subsample)的平均池化层(Average Pooling)

双曲正切(Tanh)或S型(Sigmoid)的激活函数

MLP作为最后的分类器

层与层之间的稀疏连接减少计算复杂度

LeNet5中的诸多特性现在依然在state-of-the-art卷积神经网络中使用,可以说LeNet5是奠定了现代卷积神经网络的基石之作。Lenet-5的结构下图所示。
在这里插入图片描述
它的输入图像为32×32的灰度值图像,后面有3个卷积层,1个全连接层和1个高斯连接层

本专栏所采用的数据集为猴子数据集,数据集获取:https://pan.baidu.com/s/1p1lG_AhsrMVu7N3BEm6YQw
提取码:hqjp

# 导入相应的库
# 导入相应的库
from tensorflow.keras.preprocessing.image import ImageDataGenerator
import matplotlib.pyplot as plt
import tensorflow as tf
import os


# 设置图片的高和宽,一次训练所选取的样本数,迭代次数
im_height = 32
im_width = 32
batch_size = 64
epochs = 30

image_path = "C:/Users/HaibinZhao/Desktop/untitled/monkey/"  # monkey数据集路径
train_dir = image_path + "training/training"  # 训练集路径
validation_dir = image_path + "validation/validation"  # 验证集路径

# 定义训练集图像生成器,并进行图像增强
train_image_generator = ImageDataGenerator(rescale=1. / 255,  # 归一化
                                           rotation_range=40,  # 旋转范围
                                           width_shift_range=0.2,  # 水平平移范围
                                           height_shift_range=0.2,  # 垂直平移范围
                                           shear_range=0.2,  # 剪切变换的程度
                                           zoom_range=0.2,  # 缩放范围
                                           horizontal_flip=True,  # 水平翻转
                                           fill_mode='nearest')

# 使用图像生成器从文件夹train_dir中读取样本,对标签进行one-hot编码
train_data_gen = train_image_generator.flow_from_directory(directory=train_dir,
                                                           batch_size=batch_size,
                                                           shuffle=True,  # 打乱数据
                                                           target_size=(im_height, im_width),
                                                           class_mode='categorical')
print(train_data_gen)
# 训练集样本数
total_train = train_data_gen.n

# 定义验证集图像生成器,并对图像进行预处理
validation_image_generator = ImageDataGenerator(rescale=1. / 255)  # 归一化

# 使用图像生成器从验证集validation_dir中读取样本
val_data_gen = validation_image_generator.flow_from_directory(directory=validation_dir,
                                                              batch_size=batch_size,
                                                              shuffle=False,  # 不打乱数据
                                                              target_size=(im_height, im_width),
                                                              class_mode='categorical')
print(val_data_gen)
# 验证集样本数
total_val = val_data_gen.n


# 定义LeNet
model = tf.keras.Sequential([tf.keras.layers.Conv2D(filters=6, kernel_size=(5, 5), activation='relu', input_shape=(32, 32, 3)),
                             tf.keras.layers.MaxPool2D(pool_size=(2, 2), strides=2),
                             tf.keras.layers.Conv2D(filters=16, kernel_size=(5, 5), activation='relu'),
                             tf.keras.layers.MaxPool2D(pool_size=(2, 2), strides=2),
                             tf.keras.layers.Flatten(),
                             tf.keras.layers.Dense(120, activation='relu'),
                             tf.keras.layers.Dense(84, activation='relu'),
                             tf.keras.layers.Dense(10, activation='softmax')
                             ])


# 模型打印
model.summary()

# 模型编译
model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.0001),
              loss='categorical_crossentropy',
              metrics=['accuracy'])

# 模型保存
checkpoint_save_path = "./checkpoint/LeNet5.ckpt"
if os.path.exists(checkpoint_save_path + '.index'):
    print('------------load the model--------------')
    model.load_weights(checkpoint_save_path)

cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_save_path,
                                                 save_weights_only=True,
                                                 save_best_only=True)

# 模型训练
history = model.fit(x=train_data_gen, steps_per_epoch=total_train // batch_size, epochs=epochs,
                    validation_data=val_data_gen,
                    validation_steps=total_val // batch_size,
                    callbacks=[cp_callback])

# 记录训练集和验证集的准确率和损失值
history_dict = history.history
train_loss = history_dict["loss"]
train_accuracy = history_dict["accuracy"]
val_loss = history_dict["val_loss"]
val_accuracy = history_dict["val_accuracy"]

# 绘制损失值
plt.figure()
plt.plot(range(epochs), train_loss, label='train_loss')
plt.plot(range(epochs), val_loss, label='val_loss')
plt.legend()
plt.xlabel('epochs')
plt.ylabel('loss')

# 绘制准确率
plt.figure()
plt.plot(range(epochs), train_accuracy, label='train_accuracy')
plt.plot(range(epochs), val_accuracy, label='val_accuracy')
plt.legend()
plt.xlabel('epochs')
plt.ylabel('accuracy')
plt.show()

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值