AI计算机视觉进阶项目(一)——带口罩识别检测(3)

独热编码官方合作微信:gldz_super

本专栏《AI计算机视觉进阶项目》主要以计算机视觉实战项目为主,第一个项目为口罩检测:该项目将分为几个模块进行展示。本项目已完成链接:

1.AI计算机视觉进阶项目(一)——带口罩识别检测(1)_AI炮灰的博客-CSDN博客

2.AI计算机视觉进阶项目(一)——带口罩识别检测(2)_AI炮灰的博客-CSDN博客

一、本节任务

  1. 对带口罩识别检测(2)中生成的npz文件数据进行读取
  2. one_hot独热编码
  3. 分为train和test数据
  4. 搭建CNN模型
  5. 训练模型
  6. 保存模型

二、任务实现

2.1模块导入

# 模块导入
import numpy as np
from sklearn.preprocessing import OneHotEncoder
from sklearn.model_selection import train_test_split
import tensorflow as tf
from tensorflow.python.keras import layers, Sequential
import pandas as pd
import matplotlib.pyplot as plt

2.2 数据读取

# 1.读取NPZ文件
arr = np.load('./imageData.npz')
img_list = arr['arr_0']
label_list = arr['arr_1']
print(img_list.shape, label_list.shape)  # (5320, 100, 100, 3) (5320,)

2.3独热编码

# 2.one_hot独热编码:将label的类别变为二进制独热编码格式这样类别直接的距离更加合理
print(np.unique(label_list))  # 查看所有的类别
# 实例化
onehot = OneHotEncoder()
# 编码:并把标签label_list由一维变为二维
y_onehot = onehot.fit_transform(label_list.reshape(-1, 1))  # label_list由(5320,1)变为(5320, 3)
print(y_onehot.shape)
# 将y_onehot变为矩阵
y_onehot_arr = y_onehot.toarray()
print(y_onehot_arr)

2.4数据集划分

# 3.分为train和test数据
x_train, x_test, y_train, y_test = train_test_split(img_list, y_onehot_arr, test_size=0.2, random_state=42)
print(x_train.shape, x_test.shape, y_train.shape, y_test.shape)

2.5模型搭建

# 4.搭建模型
model = Sequential([
    layers.Conv2D(16, 3, padding='same', input_shape=(100, 100, 3), activation='relu'),
    layers.MaxPool2D(),
    layers.Conv2D(32, 3, padding='same', activation='relu'),
    layers.MaxPool2D(),
    layers.Conv2D(64, 3, padding='same', activation='relu'),
    layers.MaxPool2D(),
    layers.Flatten(),
    layers.Dense(166, activation='relu'),
    layers.Dense(22, activation='relu'),
    layers.Dense(3, activation='sigmoid')
])

# 编译模型
model.compile(
    # optimizer=tf.keras.optimizers.Adam(learning_rate=0.001),
    # loss=tf.keras.losses.categorical_crossentroy,
    # metrics=['accurate']
    optimizer='adam',
    loss='categorical_crossentropy',
    metrics=['accuracy']
)

# 预览模型
model.summary()

 2.6查看模型训练效果

# 5.训练模型
history = model.fit(
    x_train,
    y_train,
    validation_data=(x_test, y_test),
    batch_size=30,
    epochs=10
)

# 查看训练效果
history_pd = pd.DataFrame(history.history)
print(history_pd)

2.7 画出损失和精确度

# 查看损失
plt.plot(history_pd['loss'])
plt.plot(history_pd['val_loss'])
plt.title('Model loss')
plt.xlabel('epoch')
plt.ylabel('loss')
plt.legend(['train_set', 'test_set'], loc='upper right')
plt.show()

# 查看准确率
# 查看损失
plt.plot(history_pd['accuracy'])
plt.plot(history_pd['val_accuracy'])
plt.title('Model accuracy')
plt.xlabel('epoch')
plt.ylabel('accuracy')
plt.legend(['train_set', 'test_set'], loc='upper right')
plt.show()

 

 2.8保存模型

# 6.保存模型:为了防止每次使用都需进行训练
model.save('./face_mask_model.h5')

 保存模型后后面使用就不需要每次进行训练,直接可以使用保存后得模型

三、完整代码

"""
    流程:
        1.读取NPZ文件
        2.one_hot独热编码
        3.分为train和test数据
        4.搭建CNN模型
        5.训练模型
        6.保存模型
"""

# 模块导入
import numpy as np
from sklearn.preprocessing import OneHotEncoder
from sklearn.model_selection import train_test_split
from tensorflow.python.keras import layers, Sequential
import pandas as pd
import matplotlib.pyplot as plt

# 1.读取NPZ文件
arr = np.load('./imageData.npz')
img_list = arr['arr_0']
label_list = arr['arr_1']
print(img_list.shape, label_list.shape)  # (5320, 100, 100, 3) (5320,)

# 2.one_hot独热编码:将label的类别变为二进制独热编码格式这样类别直接的距离更加合理
print(np.unique(label_list))  # 查看所有的类别
# 实例化
onehot = OneHotEncoder()
# 编码:并把标签label_list由一维变为二维
y_onehot = onehot.fit_transform(label_list.reshape(-1, 1))  # label_list由(5320,1)变为(5320, 3)
print(y_onehot.shape)
# 将y_onehot变为矩阵
y_onehot_arr = y_onehot.toarray()
print(y_onehot_arr)

# 3.分为train和test数据
x_train, x_test, y_train, y_test = train_test_split(img_list, y_onehot_arr, test_size=0.2, random_state=42)
print(x_train.shape, x_test.shape, y_train.shape, y_test.shape)

# 4.搭建模型
model = Sequential([
    layers.Conv2D(16, 3, padding='same', input_shape=(100, 100, 3), activation='relu'),
    layers.MaxPool2D(),
    layers.Conv2D(32, 3, padding='same', activation='relu'),
    layers.MaxPool2D(),
    layers.Conv2D(64, 3, padding='same', activation='relu'),
    layers.MaxPool2D(),
    layers.Flatten(),
    layers.Dense(166, activation='relu'),
    layers.Dense(22, activation='relu'),
    layers.Dense(3, activation='sigmoid')
])

# 编译模型
model.compile(
    # optimizer=tf.keras.optimizers.Adam(learning_rate=0.001),
    # loss=tf.keras.losses.categorical_crossentroy,
    # metrics=['accurate']
    optimizer='adam',
    loss='categorical_crossentropy',
    metrics=['accuracy']
)

# 预览模型
model.summary()

# 5.训练模型
history = model.fit(
    x_train,
    y_train,
    validation_data=(x_test, y_test),
    batch_size=30,
    epochs=10
)

# 查看训练效果
history_pd = pd.DataFrame(history.history)
print(history_pd)

# 查看损失
plt.plot(history_pd['loss'])
plt.plot(history_pd['val_loss'])
plt.title('Model loss')
plt.xlabel('epoch')
plt.ylabel('loss')
plt.legend(['train_set', 'test_set'], loc='upper right')
plt.show()

# 查看准确率
# 查看损失
plt.plot(history_pd['accuracy'])
plt.plot(history_pd['val_accuracy'])
plt.title('Model accuracy')
plt.xlabel('epoch')
plt.ylabel('accuracy')
plt.legend(['train_set', 'test_set'], loc='upper right')
plt.show()

# 6.保存模型:为了防止每次使用都需进行训练
model.save('./face_mask_model.h5')

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI炮灰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值