- 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
- 🍖 原作者:K同学啊
前言
这周开始车牌号的识别。
数据集
The number of images in a training set is: 10944
The number of images in a test set is: 2736
The number of batches per epoch is: 684
from torchvision.transforms import transforms
from torch.utils.data import DataLoader
from torchvision import datasets
import torchvision.models as models
import torch.nn.functional as F
import torch.nn as nn
import torch,torchvision
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
import os,PIL,random,pathlib
import matplotlib.pyplot as plt
# 支持中文
plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号
data_dir = '015_licence_plate'
data_dir = pathlib.Path(data_dir)
data_paths = list(data_dir.glob('*'))
classeNames = [str(path).split("\\")[1].split("_")[1].split(".")[0] for path in data_paths]
print(classeNames)
data_paths = list(data_dir.glob('*'))
data_paths_str = [str(path) for path in data_paths]
# plt.figure(figsize=(14, 5))
# plt.suptitle("数据示例", fontsize=15)
# for i in range(18):
# plt.subplot(3, 6, i + 1)
# # plt.xticks([])
# # plt.yticks([])
# # plt.grid(False)
#
# # 显示图片
# images = plt.imread(data_paths_str[i])
# plt.imshow(images)
#
# plt.show()
import numpy as np
char_enum = ["京","沪","津","渝","冀","晋","蒙","辽","吉","黑","苏","浙","皖","闽","赣","鲁",\
"豫","鄂","湘","粤","桂","琼","川","贵","云","藏","陕","甘","青","宁","新","军","使"]
number = [str(i) for i in range(0, 10)] # 0 到 9 的数字
alphabet = [chr(i) for i in range(65, 91)] # A 到 Z 的字母
char_set = char_enum + number + alphabet
char_set_len = len(char_set)
label_name_len = len(classeNames[0])
# 将字符串数字化
def text2vec(text):
vector = np.zeros([label_name_len, char_set_len])
for i, c in enumerate(text):
idx = char_set.index(c)
vector[i][idx] = 1.0
return vector
all_labels = [text2vec(i) for i in classeNames]
这段代码定义了一个函数 text2vec(text),它的作用是将文本字符串转换为一个独热编码向量。具体来说,它将输入的文本字符串 text 转换为一个二维的 Numpy 数组,其中第一维的长度是 label_name_len,第二维的长度是 char_set_len。在这个二维数组中,每行代表着文本中的一个字符,每列代表着字符集中的一个字符,如果某个字符出现在文本中,则对应的位置上的值为1,否则为0。
定义模型
class Network_bn(nn.Module):
def __init__(self):
super(Network_bn, self).__init__()
"""
nn.Conv2d()函数:
第一个参数(in_channels)是输入的channel数量
第二个参数(out_channels)是输出的channel数量
第三个参数(kernel_size)是卷积核大小
第四个参数(stride)是步长,默认为1
第五个参数(padding)是填充大小,默认为0
"""
self.conv1 = nn.Conv2d(in_channels=3, out_channels=12, kernel_size=5, stride=1, padding=0)
self.bn1 = nn.BatchNorm2d(12)
self.conv2 = nn.Conv2d(in_channels=12, out_channels=12, kernel_size=5, stride=1, padding=0)
self.bn2 = nn.BatchNorm2d(12)
self.pool = nn.MaxPool2d(2, 2)
self.conv4 = nn.Conv2d(in_channels=12, out_channels=24, kernel_size=5, stride=1, padding=0)
self.bn4 = nn.BatchNorm2d(24)
self.conv5 = nn.Conv2d(in_channels=24, out_channels=24, kernel_size=5, stride=1, padding=0)
self.bn5 = nn.BatchNorm2d(24)
self.fc1 = nn.Linear(24 * 50 * 50, label_name_len * char_set_len)
self.reshape = Reshape([label_name_len, char_set_len])
def forward(self, x):
x = F.relu(self.bn1(self.conv1(x)))
x = F.relu(self.bn2(self.conv2(x)))
x = self.pool(x)
x = F.relu(self.bn4(self.conv4(x)))
x = F.relu(self.bn5(self.conv5(x)))
x = self.pool(x)
x = x.view(-1, 24 * 50 * 50)
x = self.fc1(x)
# 最终reshape
x = self.reshape(x)
return x
# 定义Reshape层
class Reshape(nn.Module):
def __init__(self, shape):
super(Reshape, self).__init__()
self.shape = shape
def forward(self, x):
return x.view(x.size(0), *self.shape)
这段代码定义了一个名为 Network_bn 的神经网络模型类,其中包含了卷积层、批归一化层和全连接层。这个模型用于处理图像数据,并在最后输出一个二维张量,用于识别车牌上的字符。
输入层接受3个通道的图像数据。
然后经过两个卷积层(conv1 和 conv2),每个卷积层后面跟着一个批归一化层(bn1 和 bn2),以及一个ReLU激活函数。
之后进行最大池化操作,将特征图的尺寸减半。
再经过两个类似的卷积层和批归一化层(conv4, bn4, conv5, bn5)。
再次进行最大池化操作。
最后通过一个全连接层(fc1)将特征图展平为一维向量,并输出一个形状为 [batch_size, label_name_len * char_set_len] 的张量,其中 label_name_len * char_set_len 表示输出的字符数。
此外,代码中还定义了一个名为 Reshape 的自定义层,用于在模型的前向传播中将输出的一维向量重新调整为二维张量,形状为 [batch_size, label_name_len, char_set_len],这样可以更方便地与标签进行比较。
训练和测试
def train(model, train_loader, loss_model, optimizer):
model = model.to(device)
model.train()
for i, (images, labels) in enumerate(train_loader, 0): # 0是标起始位置的值。
images = Variable(images.to(device))
labels = Variable(labels.to(device))
optimizer.zero_grad()
outputs = model(images)
loss = loss_model(outputs, labels)
loss.backward()
optimizer.step()
if i % 1000 == 0:
print('[%5d] loss: %.3f' % (i, loss))
def test(model, test_loader, loss_model):
size = len(test_loader.dataset)
num_batches = len(test_loader)
correct = 0
model.eval()
test_loss = 0
with torch.no_grad():
for X, y in test_loader:
X, y = X.to(device), y.to(device)
pred = model(X)
test_loss += loss_model(pred, y).item()
# 计算准确率
# 对预测结果进行解码,获取最大概率的字符索引
pred_indices = pred.argmax(dim=2) # 沿着第2维找到最大值的索引,得到的形状是 [batch, 7]
# 对真实标签进行解码,获取字符索引
target_indices = y.argmax(dim=2) # 得到的形状同样是 [batch, 7]
# 计算每个位置上是否预测正确,得到的是一个布尔张量
position_correct = pred_indices.eq(target_indices) # 形状为 [batch, 7]
# 计算整个车牌识别是否正确,如果每个位置都正确,则整个车牌识别正确
plate_correct = position_correct.all(dim=1) # 形状为 [batch]
# 统计正确预测的数量
correct += plate_correct.sum().item()
test_loss /= num_batches
accuracy = correct / size
print(f"Avg loss: {test_loss:>8f}, Accuracy: {accuracy*100:.2f}%\n")
return accuracy, test_loss
为了获取每一次测试的准确率(Accuracy),我们需要考虑每个字符位置上的预测是否与真实标签相匹配。由于 pred.shape 和 y.shape 是 [batch, 7, 69],表示每个样本有7个位置(字符),每个位置有69个可能的字符,我们需要按字符位置逐个比较预测结果和真实标签
结果
总结
这一小节比较难,准确来说个人感觉这章属于目标检测的东西,目前还没有涉及这方面,里面还有很多东西没搞懂,这个已经搞了蛮久了,打算先放一放,继续深入学习,然后在回头探讨。