↑↑↑关注后"星标"Datawhale
每日干货 & 每月组队学习,不错过
Datawhale干货
作者:安晟,算法工程师,Datawhale成员
赛题数据及背景
https://tianchi.aliyun.com/competition/entrance/531795/introduction(阿里天池-零基础入门CV赛事)
本文分为以下几部分:
如何优化官方baseline的效果?
其它解题思路的整理和分析
字符级目标检测的优化技巧整理
在这里要特别感谢多位前排选手对于比赛技巧的无私分享,那么不多bb,下面直接进入正题
一、如何优化官方baseline的效果?
本次入门赛的官方baseline入门材料,已经提供了完整的实践思路:Task1 赛题理解[1]、Task2 数据读取与数据扩增[2]、Task3 字符识别模型[3]、Task4 模型训练与验证[4]、Task5 模型集成[5],本质上,baseline的思路就是将赛题转换为了一个定长的字符识别问题,用包含多个输出的分类问题来进行求解。
![](https://i-blog.csdnimg.cn/blog_migrate/dcb1a386459a2cd20e60b0278ba98c74.png)
1.1 改进版baseline
那么如何进行进一步优化呢?在比赛进行的过程中,我在天池进行了一次如何调参上分[6]的直播分享。
直播对应的代码可以在我们的《动手学CV项目》[7]的2.5节找到。
这份代码相当于一个加强版的baseline,简短来说,介绍了以下几点:
重新回顾baseline的代码
阶段性下降的学习率调整策略
分析了很多人提交出0.3-0.4分成绩的原因和解决方案
加入数据增强策略
这份代码我相信是帮到了一些刚入门的同学的,提交的成绩大概在0.75分左右。
那么在这样一个baseline的基础上,如何进一步的优化呢?
1.2 改进backbone
baseline中我们的网络结构是这样定义的:
class SVHN_Model1(nn.Module):
def __init__(self):
super(SVHN_Model1, self).__init__()
model_conv = models.resnet18(pretrained=True)
model_conv.avgpool = nn.AdaptiveAvgPool2d(1)
model_conv = nn.Sequential(*list(model_conv.children())[:-1]) # 去除最后一个fc layer
self.cnn = model_conv
self.fc1 = nn.Linear(512, 11)
self.fc2 = nn.Linear(512, 11)
self.fc3 = nn.Linear(512, 11)
self.fc4 = nn.Linear(512, 11)
self.fc5 = nn.Linear(512, 11)
def forward(self, img):
feat = self.cnn(img)
#print(feat.shape)
feat = feat.view(feat.shape[0], -1)
c1 = self.fc1(feat)
c2 = self.fc2(feat)
c3 = self.fc3(feat)
c4 = self.fc4(feat)
c5 = self.fc5(feat)
return c1, c2, c3, c4, c5
我们可以对使用的backbone网络进行一系列的改进:
由resnet18换为更大的resnet50
为每一个分类模块加上一层