![4220b180-3217-eb11-8da9-e4434bdf6706.png](http://p02.5ceimg.com/content/4220b180-3217-eb11-8da9-e4434bdf6706.png)
赛事地址:https://tianchi.aliyun.com/competition/entrance/531795/introduction
一、赛题理解
1.1、赛题任务:赛题以计算机视觉中字符识别为背景,要求选手预测街道字符编码,这是一个典型的字符识别问题。赛题数据采用公开数据集SVHN,同时为了降低难度,主办方提供了训练集、验证集中所有字符的位置框。因此可以只对位置框中字符进行识别。
1.2、评价指标:准确率
1.3、数据集信息
![4620b180-3217-eb11-8da9-e4434bdf6706.png](http://p02.5ceimg.com/content/4620b180-3217-eb11-8da9-e4434bdf6706.png)
![4c20b180-3217-eb11-8da9-e4434bdf6706.png](http://p04.5ceimg.com/content/4c20b180-3217-eb11-8da9-e4434bdf6706.png)
1.4、读取json文件
import json
train_json = json.load(open('../input/train.json')) #导入训练集
# 读取边框位置和数据标注
def parse_json(d):
arr = np.array([
d['top'], d['height'], d['left'], d['width'], d['label']
])
arr = arr.astype(int)
return arr
img = cv2.imread('../input/train/000000.png')
arr = parse_json(train_json['000000.png'])
#绘制原始图片
plt.figure(figsize=(10, 10))
plt.subplot(1, arr.shape[1]+1, 1)
plt.imshow(img)
plt.xticks([]); plt.yticks([])
#绘制边框内字符
for idx in range(arr.shape[1]):
plt.subplot(1, arr.shape[1]+1, idx+2)
plt.imshow(img[arr[0, idx]:arr[0, idx]+arr[1, idx],arr[2, idx]:arr[2, idx]+arr[3, idx]])
plt.title(arr[4, idx])
plt.xticks([]); plt.yticks([])
1.5、解题思路
本次赛题的难点是需要对不定长的字符进行识别。从易到难有如下3种解题思路。
思路一:定长字符识别
![4f20b180-3217-eb11-8da9-e4434bdf6706.png](http://p01.5ceimg.com/content/4f20b180-3217-eb11-8da9-e4434bdf6706.png)
找出数据集中最长字符串,假设长度为6,将所有字符均填充为6位字符串,设填充符为‘X’,再分别对每个字符进行识别(不是对每个字符串进行整体识别)。这样问题就转化为了11个类别的分类问题:字符‘0’-‘9’和填充字符‘X’
思路二:不定长字符识别
该思路直接将字符串作为一个单词或者一个句子,直接对整体进行识别。特定算法如CRNN字符识别模型。
思路三:物体检测+识别
因为在赛题数据中已经给出了训练集、验证集中所有图片中字符的位置,因此可以首先识别字符的位置,再构建字符检测模型,对测试集中的字符进行识别。物体检测模型有SSD、YOLO等(上个月YOLO v4刚出,不如一试)。
二、数据读取与数据扩增
2.1、图像读取
Tips:Pillow读入图片后以image格式储存,其他库均以numpy格式储存图片
2.1.1 Pillow
Pillow是Python图像处理函式库(PIL)的一个分支。Pillow提供了常见的图像读取和处理的操作,而且可以与ipython notebook无缝集成,是应用比较广泛的库。
常用代码:
from PIL import Image, ImageFilter
# 导入Pillow库
# 读取图片
im =Image.open(cat.jpg')
# 应用模糊滤镜:
im2 = im.filter(ImageFilter.BLUR)
im2.save('blur.jpg', 'jpeg')
# 打开一个jpg图像文件,注意是当前路径:
im.thumbnail((w//2, h//2))
im.save('thumbnail.jpg', 'jpeg')
Pillow的官方文档:https://pillow.readthedocs.io/en/stable/
2.1.2 OpenCV
OpenCV是一个跨平台的计算机视觉库,最早由Intel开源得来。OpenCV发展的非常早,拥有众多的计算机视觉、数字图像处理和机器视觉等功能。OpenCV在功能上比Pillow更加强大很多,学习成本也高很多。
需要注意的是,OpenCV读入的彩色图像通道顺序是BGR,其他的都是RGB。需要通过一行代码进行转换
im2=cv2.cvtColor(im2, cv2.COLOR_BGR2RGB)
常用代码:
import cv2
# 导入Opencv库
img = cv2.imread('cat.jpg')
# Opencv默认颜色通道顺序是BRG,转换一下
img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
# 转换为灰度图
img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# Canny边缘检测
edges = cv2.Canny(img, 30, 70)
cv2.imwrite('canny.jpg', edges)
OpenCV官网:https://opencv.org/
OpenCV Github:https://github.com/opencv/opencv
OpenCV 扩展算法库:https://github.com/opencv/opencv_contrib
2.1.3 skimage
scikit-image是基于scipy的图像处理包,简称skimage。skimage提供的功能较多,比OpenCV更轻便,推荐使用!
from skimage import color
from skimage import io
im=io.imread('dog.jpg')
io.imshow(im)
io.show()
2.2 数据扩增
在深度学习中数据扩增方法非常重要,数据扩增可以增加训练集的样本,同时也可以有效缓解模型过拟合的情况,也可以给模型带来的更强的泛化能力。
2.2.1 数据扩增为什么有用
假设现在的分类模型需要对汽车进行分类,左边的是汽车A,右边为汽车B。如果不使用任何数据扩增方法,深度学习模型会从汽车车头的角度来进行判别,而不是汽车具体的区别。
2.2.2常见数据扩增方法
在常见的数据扩增方法中,一般会从图像颜色、尺寸、形态、空间和像素等角度进行变换。当然不同的数据扩增方法可以自由进行组合,得到更加丰富的数据扩增方法。
以torchvision为例,常见的数据扩增方法包括:
- transforms.CenterCrop 对图片中心进行裁剪
- transforms.ColorJitter 对图像颜色的对比度、饱和度和零度进行变换
- transforms.FiveCrop 对图像四个角和中心进行裁剪得到五分图像
- transforms.Grayscale 对图像进行灰度变换
- transforms.Pad 使用固定值进行像素填充
- transforms.RandomAffine 随机仿射变换
- transforms.RandomCrop 随机区域裁剪
- transforms.RandomHorizontalFlip 随机水平翻转
- transforms.RandomRotation 随机旋转
- transforms.RandomVerticalFlip 随机垂直翻转
在本次赛题中,赛题任务是需要对图像中的字符进行识别,因此对于字符图片并不能进行翻转操作。比如字符6经过水平翻转就变成了字符9,会改变字符原本的含义。
2.2.3 常用数据扩增库
- torchvision
https://github.com/pytorch/vision
pytorch官方提供的数据扩增库,提供了基本的数据数据扩增方法,可以无缝与torch进行集成;但数据扩增方法种类较少,且速度中等;
- imgaug
https://github.com/aleju/imgaug
imgaug是常用的第三方数据扩增库,提供了多样的数据扩增方法,且组合起来非常方便,速度较快;
- albumentations
https://albumentations.readthedocs.io
是常用的第三方数据扩增库,提供了多样的数据扩增方法,对图像分类、语义分割、物体检测和关键点检测都支持,速度较快。
2.3 使用Pytorch读取数据
import os, sys, glob, shutil, json
import cv2
from PIL import Image
import numpy as np
import torch
from torch.utils.data.dataset import Dataset
import torchvision.transforms as transforms
class SVHNDataset(Dataset):
def __init__(self, img_path, img_label, transform=None):
self.img_path = img_path
self.img_label = img_label
if transform is not None:
self.transform = transform
else:
self.transform = None
def __getitem__(self, index):
img = Image.open(self.img_path[index]).convert('RGB')
if self.transform is not None:
img = self.transform(img)
# 原始SVHN中类别10为数字0
lbl = np.array(self.img_label[index], dtype=np.int)
lbl = list(lbl) + (5 - len(lbl)) * [10]
return img, torch.from_numpy(np.array(lbl[:5]))
def __len__(self):
return len(self.img_path)
train_path = glob.glob('../input/train/*.png')
train_path.sort()
train_json = json.load(open('../input/train.json'))
train_label = [train_json[x]['label'] for x in train_json]
data = SVHNDataset(train_path, train_label,
transforms.Compose([
# 缩放到固定尺寸
transforms.Resize((64, 128)),
# 随机颜色变换
transforms.ColorJitter(0.2, 0.2, 0.2),
# 加入随机旋转
transforms.RandomRotation(5),
# 将图片转换为pytorch 的tesntor
# transforms.ToTensor(),
# 对图像像素进行归一化
# transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])
]))
通过上述代码,可以将赛题的图像数据和对应标签进行读取,在读取过程中的进行数据扩增,效果如下:
![5520b180-3217-eb11-8da9-e4434bdf6706.png](http://p05.5ceimg.com/content/5520b180-3217-eb11-8da9-e4434bdf6706.png)
接下来我们将在定义好的Dataset基础上构建DataLoder,你可以会问有了Dataset为什么还要有DataLoder?其实这两个是两个不同的概念,是为了实现不同的功能。
- Dataset:对数据集的封装,提供索引方式的对数据样本进行读取
- DataLoder:对Dataset进行封装,提供批量读取的迭代读取
加入DataLoder后,数据读取代码改为如下:
import os, sys, glob, shutil, json
import cv2
from PIL import Image
import numpy as np
import torch
from torch.utils.data.dataset import Dataset
import torchvision.transforms as transforms
class SVHNDataset(Dataset):
def __init__(self, img_path, img_label, transform=None):
self.img_path = img_path
self.img_label = img_label
if transform is not None:
self.transform = transform
else:
self.transform = None
def __getitem__(self, index):
img = Image.open(self.img_path[index]).convert('RGB')
if self.transform is not None:
img = self.transform(img)
# 原始SVHN中类别10为数字0
lbl = np.array(self.img_label[index], dtype=np.int)
lbl = list(lbl) + (5 - len(lbl)) * [10]
return img, torch.from_numpy(np.array(lbl[:5]))
def __len__(self):
return len(self.img_path)
train_path = glob.glob('../input/train/*.png')
train_path.sort()
train_json = json.load(open('../input/train.json'))
train_label = [train_json[x]['label'] for x in train_json]
train_loader = torch.utils.data.DataLoader(
SVHNDataset(train_path, train_label,
transforms.Compose([
transforms.Resize((64, 128)),
transforms.ColorJitter(0.3, 0.3, 0.2),
transforms.RandomRotation(5),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])),
batch_size=10, # 每批样本个数
shuffle=False, # 是否打乱顺序
num_workers=10, # 读取的线程个数
)
for data in train_loader:
break
在加入DataLoder后,数据按照批次获取,每批次调用Dataset读取单个样本进行拼接。此时data的格式为:
torch.Size([10, 3, 64, 128]), torch.Size([10, 6])
前者为图像文件,为batchsize * chanel * height * width次序;后者为字符标签。
三、字符识别模型
3.1 CNN发展
随着网络结构的发展,研究人员最初发现网络模型结构越深、网络参数越多模型的精度更优。比较典型的是AlexNet、VGG、InceptionV3和ResNet的发展脉络。
![5820b180-3217-eb11-8da9-e4434bdf6706.png](http://p05.5ceimg.com/content/5820b180-3217-eb11-8da9-e4434bdf6706.png)
3.2 Pytorch构建CNN模型
模型搭建代码:
import torch
torch.manual_seed(0)
torch.backends.cudnn.deterministic = False
torch.backends.cudnn.benchmark = True
import torchvision.models as models
import torchvision.transforms as transforms
import torchvision.datasets as datasets
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from torch.autograd import Variable
from torch.utils.data.dataset import Dataset
# 定义模型
class SVHN_Model1(nn.Module):
def __init__(self):
super(SVHN_Model1, self).__init__()
# CNN提取特征模块
self.cnn = nn.Sequential(
nn.Conv2d(3, 16, kernel_size=(3, 3), stride=(2, 2)),
nn.ReLU(),
nn.MaxPool2d(2),
nn.Conv2d(16, 32, kernel_size=(3, 3), stride=(2, 2)),
nn.ReLU(),
nn.MaxPool2d(2),
)
#
self.fc1 = nn.Linear(32*3*7, 11)
self.fc2 = nn.Linear(32*3*7, 11)
self.fc3 = nn.Linear(32*3*7, 11)
self.fc4 = nn.Linear(32*3*7, 11)
self.fc5 = nn.Linear(32*3*7, 11)
self.fc6 = nn.Linear(32*3*7, 11)
def forward(self, img):
feat = self.cnn(img)
feat = feat.view(feat.shape[0], -1)
c1 = self.fc1(feat)
c2 = self.fc2(feat)
c3 = self.fc3(feat)
c4 = self.fc4(feat)
c5 = self.fc5(feat)
c6 = self.fc6(feat)
return c1, c2, c3, c4, c5, c6
model = SVHN_Model1()
接下来是训练代码:
# 损失函数
criterion = nn.CrossEntropyLoss()
# 优化器
optimizer = torch.optim.Adam(model.parameters(), 0.005)
loss_plot, c0_plot = [], []
# 迭代10个Epoch
for epoch in range(10):
for data in train_loader:
c0, c1, c2, c3, c4, c5 = model(data[0])
loss = criterion(c0, data[1][:, 0]) +
criterion(c1, data[1][:, 1]) +
criterion(c2, data[1][:, 2]) +
criterion(c3, data[1][:, 3]) +
criterion(c4, data[1][:, 4]) +
criterion(c5, data[1][:, 5])
loss /= 6
optimizer.zero_grad()
loss.backward()
optimizer.step()
loss_plot.append(loss.item())
c0_plot.append((c0.argmax(1) == data[1][:, 0]).sum().item()*1.0 / c0.shape[0])
print(epoch)
在训练完成后我们可以将训练过程中的损失和准确率进行绘制,如下图所示。从图中可以看出模型的损失在迭代过程中逐渐减小,字符预测的准确率逐渐升高。
![5920b180-3217-eb11-8da9-e4434bdf6706.png](http://p03.5ceimg.com/content/5920b180-3217-eb11-8da9-e4434bdf6706.png)
当然为了追求精度,也可以使用在ImageNet数据集上的预训练模型,具体代码如下:
class SVHN_Model2(nn.Module):
def __init__(self):
super(SVHN_Model1, self).__init__()
model_conv = models.resnet18(pretrained=True)
model_conv.avgpool = nn.AdaptiveAvgPool2d(1)
model_conv = nn.Sequential(*list(model_conv.children())[:-1])
self.cnn = model_conv
self.fc1 = nn.Linear(512, 11)
self.fc2 = nn.Linear(512, 11)
self.fc3 = nn.Linear(512, 11)
self.fc4 = nn.Linear(512, 11)
self.fc5 = nn.Linear(512, 11)
def forward(self, img):
feat = self.cnn(img)
# print(feat.shape)
feat = feat.view(feat.shape[0], -1)
c1 = self.fc1(feat)
c2 = self.fc2(feat)
c3 = self.fc3(feat)
c4 = self.fc4(feat)
c5 = self.fc5(feat)
return c1, c2, c3, c4, c5
四、模型训练与验证
4.1 模型训练与验证
在本节我们目标使用Pytorch来完成CNN的训练和验证过程,CNN网络结构与之前的章节中保持一致。我们需要完成的逻辑结构如下:
- 构造训练集和验证集;
- 每轮进行训练和验证,并根据最优验证集精度保存模型。
train_loader = torch.utils.data.DataLoader(
train_dataset,
batch_size=10,
shuffle=True,
num_workers=10,
)
val_loader = torch.utils.data.DataLoader(
val_dataset,
batch_size=10,
shuffle=False,
num_workers=10,
)
model = SVHN_Model1()
criterion = nn.CrossEntropyLoss (size_average=False)
optimizer = torch.optim.Adam(model.parameters(), 0.001)
best_loss = 1000.0
for epoch in range(20):
print('Epoch: ', epoch)
train(train_loader, model, criterion, optimizer, epoch)
val_loss = validate(val_loader, model, criterion)
# 记录下验证集精度
if val_loss < best_loss:
best_loss = val_loss
torch.save(model.state_dict(), './model.pt')
其中每个Epoch的训练代码如下:
def train(train_loader, model, criterion, optimizer, epoch):
# 切换模型为训练模式
model.train()
for i, (input, target) in enumerate(train_loader):
c0, c1, c2, c3, c4, c5 = model(data[0])
loss = criterion(c0, data[1][:, 0]) +
criterion(c1, data[1][:, 1]) +
criterion(c2, data[1][:, 2]) +
criterion(c3, data[1][:, 3]) +
criterion(c4, data[1][:, 4]) +
criterion(c5, data[1][:, 5])
loss /= 6
optimizer.zero_grad()
loss.backward()
optimizer.step()
其中每个Epoch的验证代码如下:
def validate(val_loader, model, criterion):
# 切换模型为预测模型
model.eval()
val_loss = []
# 不记录模型梯度信息
with torch.no_grad():
for i, (input, target) in enumerate(val_loader):
c0, c1, c2, c3, c4, c5 = model(data[0])
loss = criterion(c0, data[1][:, 0]) +
criterion(c1, data[1][:, 1]) +
criterion(c2, data[1][:, 2]) +
criterion(c3, data[1][:, 3]) +
criterion(c4, data[1][:, 4]) +
criterion(c5, data[1][:, 5])
loss /= 6
val_loss.append(loss.item())
return np.mean(val_loss)
4.2 模型保存与加载
在Pytorch中模型的保存和加载非常简单,比较常见的做法是保存和加载模型参数:
torch.save(model_object.state_dict(), 'model.pt')
model.load_state_dict(torch.load(' model.pt'))
4.3 模型调参流程
深度学习有众多的训练技巧,比较推荐的阅读链接有:
- http://lamda.nju.edu.cn/weixs/project/CNNTricks/CNNTricks.html
在参加本次比赛的过程中,建议以如下逻辑完成:
- 1.初步构建简单的CNN模型,不用特别复杂,跑通训练、验证和预测的流程;
- 2.简单CNN模型的损失会比较大,尝试增加模型复杂度,并观察验证集精度;
- 3.在增加模型复杂度的同时增加数据扩增方法,直至验证集精度不变。
![5d20b180-3217-eb11-8da9-e4434bdf6706.png](http://p03.5ceimg.com/content/5d20b180-3217-eb11-8da9-e4434bdf6706.png)
五、模型集成
5.1 集成方法
方法1:使用交叉验证训练10个模型,用这10个模型对测试集做预测,可以取概率平均值,也可以用bagging投票
方法2:加入dropout。有猜想认为droupout类似于bagging集成,虽然无法证明,但很多时候效果确实很好。
方法3:TTA(测试集数据扩增):数据扩增方法不仅仅可以用在训练集,测试集也可以用,然后取概率平均值或者投票均可。
![6120b180-3217-eb11-8da9-e4434bdf6706.png](http://p04.5ceimg.com/content/6120b180-3217-eb11-8da9-e4434bdf6706.png)
def predict(test_loader, model, tta=10):
model.eval()
test_pred_tta = None
# TTA 次数
for _ in range(tta):
test_pred = []
with torch.no_grad():
for i, (input, target) in enumerate(test_loader):
c0, c1, c2, c3, c4, c5 = model(data[0])
output = np.concatenate([c0.data.numpy(), c1.data.numpy(),
c2.data.numpy(), c3.data.numpy(),
c4.data.numpy(), c5.data.numpy()], axis=1)
test_pred.append(output)
test_pred = np.vstack(test_pred)
if test_pred_tta is None:
test_pred_tta = test_pred
else:
test_pred_tta += test_pred
return test_pred_tta
方法4:Snapshot
如果只训练了一个CNN模型,可以使用cyclical learning rate进行训练模型,并保存精度比较好的一些checkopint,最后将多个checkpoint进行模型集成。
因为在cyclical learning rate中学习率的变化有周期性变大和减少的行为,因此CNN模型很有可能在跳出局部最优进入另一个局部最优。在Snapshot论文中作者通过使用表明,此种方法可以在一定程度上提高模型精度,但需要更长的训练时间。
5.2 数据后处理
- 统计图片中每个位置字符出现的频率,使用规则修正结果;
- 单独训练一个字符长度预测模型,用来预测图片中字符个数,并修正结果。
5.3 小结
- 集成学习只能在一定程度上提高精度,并需要耗费较大的训练时间,因此建议先使用提高单个模型的精度,再考虑集成学习过程;
- 具体的集成学习方法需要与验证集划分方法结合,Dropout和TTA在所有场景有可以起作用。