1 数据集分析结果
一个好的数据集往往事半功倍,所以训练网络的前提都应该是好好分析数据集。
上一篇文章说到利用pascal voc2012作为图像多标签分类的数据集,我统计出了训练集:07-08的类别总和,统计结果如下:
({‘person’: 2530, ‘car’: 549, ‘chair’: 498, ‘dog’: 433, ‘cat’: 372, ‘bird’: 348, ‘bottle’: 320, ‘aeroplane’: 281, ‘tvmonitor’: 272, ‘sofa’: 264, ‘motorbike’: 250, ‘boat’: 247, ‘pottedplant’: 245, ‘diningtable’: 242, ‘horse’: 242, ‘bicycle’: 234, ‘train’: 191, ‘bus’: 142, ‘cow’: 108, ‘sheep’: 96})
分析代码如下:
import collections
import numpy as np
name_list=[]
person_c=0
with open('train.txt','r') as f:
data=f.readlines()
for line in data:
# if line[0:4]=='2009':
names=line.split()[1:]
for name in names:
name_list.append(name)
name_count=collections.Counter(names)
if len(names)==1 and names[0]=='person':
person_c+=1
# print(name_list)
print(person_c) #图像中只含有person的图片数
count=collections.Counter(name_list)
print(count)
统计完发现person这个种类是其他类别的4倍以上,这必然会导致数据不均衡问题,所以我在代码中添加了类别的损失权重,我是怎么分配各个类别的权重的呢?我用的是person与其他类别的倍数作为各自的权重,计算的结果如下:
w=torch.tensor([1,7.3,6.8,23.4,5.8,10.5,26.3,9.3,6.9,10.2,17.8,4.6,10.1,13.2,7.9,5.1,10.5,10.3,9.6,9.3],dtype=torch.float).cuda()
(我可真是一个小精灵鬼)(有其他设置权重的方法大佬们在评论区告诉我哦)
然后在多标签分类损失中添加这个权重:
criterion = torch.nn.MultiLabelSoftMarginLoss(w)
2 训练之后测试的结果:
训练精度为90% 比上篇文章的结果少了3个点,但是你看下面这张图片的测试结果:
好家伙,把沙发都识别出来了,emmm,大家可以自己分析一下为什么会导致这样的结果(so easy)。
下篇准备换网络了,这个网络太大了,搞搞mobilnet。其实已经修改好基于inception resnetv2的图像多标签分类了。
注:创作不易,大家给个赞再溜~