这次赛题学习的最后一个任务,是学校如何使用集成学习提高预测精度。知识点包括:集成学习方法,深度学习中的集成学习和结果后处理思路。(虽然我跑一次要一天,还不一定成功,但要坚持学习)
1、集成学习方法
常见的集成学习方法有堆叠,装袋和提升,同时这些集成学习方法与具体验证集划分联系紧密。
下面假设建造了10折交叉验证,训练得到10个CNN模型。
那么在10个CNN模型可以使用如下方式进行集成:
对预测的结果的概率值进行平均,然后解码为特定字符
对预测的字符进行投票,得到最终字符。
2、深度学习中的集成学习
辍学
在每个训练期间中,通过随机让其的一部分停止工作。同时在预测的过程中让所有的中断都其作用。
辍学经常出现在先有的CNN网络中,可以有效的缓解模型过拟合的情况,也可以在预测时增加模型的精度。
加入Dropout后的网络结构如下:
#定义模型
class SVHN_Model1(nn.model):
def __init__(self):
super(SVHN_Model1, self).__init__()
#CNN提取特征模块
self.nn = nn.Sequential(
nn.Conv2d(3,16, kernel_size=(3, 3), stride=(2, 2)),
nn.ReLU(),
nn.Dropout(0.25),
nn.MaxPool2d(2),
nn.Conv2d(16, 32, kernel_size=(3, 3), strid=(2, 2)),
nn.ReLU(),
nn.Dropout(0.25),
nn.MaxPool2d(2),
)
#
self.fc1 = nn.Linear(32*3*7, 11)
self.fc2 = nn.Linear(32*3*7, 11)
self.fc3 = nn.Linear(32*3*7, 11)
self.fc4 = nn.Linear(32*3*7, 11)
self.fc5 = nn.Linear(32*3*7, 11)
self.fc6 = nn.Linear(32*3*7, 11)
def forward(self, img):
feat = self.cnn(img)
feat = feat.view(feat.shape[0], -1)
c1 = self.fc1(feat)
c2 = self.fc2(feat)
c3 = self.fc3(feat)
c4 = self.fc4(feat)
c5 = self.fc5(feat)
c6 = self.fc6(feat)
return c1, c2, c3, c4, c5, c6
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
3、TTA
测试集数据扩增(Test Time Augmentation,简称TTA)也是常用的集成学习技巧,数据扩增不仅可以在训练时候用,而且可以同样在预测时候进行数据扩增,对同一个样本预测三次,然后对三次结果进行平均。
4、Snapshot
假设我们训练了10个CNN则可以将多个模型的预测结果进行平均。但是加入只训练了一个CNN模型,如何做模型集成呢?
在论文Snapshot Ensembles中,作者提出使用cyclical learning rate进行训练模型,并保存精度比较好的一些checkopint,最后将多个checkpoint进行模型集成。
由于在cyclical learning rate中学习率的变化有周期性变大和减少的行为,因此CNN模型很有可能在跳出局部最优进入另一个局部最优。在Snapshot论文中作者通过使用表明,此种方法可以在一定程度上提高模型精度,但需要更长的训练时间。
5、结果后处理
在不同的任务中可能会有不同的解决方案,不同思路的模型不仅可以互相借鉴,同时也可以修正最终的预测结果。
在本次赛题中,可以从以下几个思路对预测结果进行后处理:
统计图片中每个位置字符出现的频率,使用规则修正结果;
单独训练一个字符长度预测模型,用来预测图片中字符个数,并修正结果。