【论文解读】Cross-dataset Training for Class Increasing Object Detection

标题:关于类增长目标检测的跨数据集训练

 文章贡献:文章提出了一个概念简单,灵活且通用的框架,这个框架可以针对跨数据集训练目标检测网络。给定针对不同对象类的两个或多个已标记的数据集,交叉数据集训练旨在检测不同类的联合,这样我们就不必为所有数据集标记所有类。

       当使用交叉数据集训练方法的时候,我们只需要标记新数据集里的新标签。

               

      上图是交叉训练数据集的主要动因。跨数据集训练的目的是利用两个或多个标记有不同对象类的数据集来训练一个能够在所有类上都表现良好的模型,如上图所示。一般来说,人脸检测模型只训练在较宽的人脸上进行人脸检测,而一般的目标检测模型则训练在COCO上进行80类目标检测。通过在更宽的人脸和COCO上进行跨数据集训练,文章的目标是建立一个具有相同主干的单一模型,能够检测出81个类而不损失准确性。

对于跨数据集训练,简单的融合标签是不合理的。主要是因为:

1、第一个原因是标签可能重复,因此必须首先在数据集之间合并相同的标签。

2、第二个原因是来自不同数据集的正负样本之间可能存在冲突。

文章为了解决上述问题,提出了四步走策略。

1、跨数据集合并重复标签。

2、通过标签连接生成混合数据集,但仍保留每个图像的原始分区信息。

3、建立一种跨越隔阂的回避关系,比如负面消极(人脸检测)对正面消极(人体检测)。

4、用这个混合数据集训练检测器,根据这个回避关系计算损失。

 

之前最然也有工作拥有跨数据集训练的思想,比如综合面部分析网络,针对面部标志、面部情感和面部分割都有不同的数据集,但是这种方法是针对人脸识别的,文章提出的方法是第一个将跨数据集训练融合进目标检测网络的。

文章里特地强调了它的思想的首创性,个人感觉这是论文写作的套路。

 

文章两大最引人注目的创新点:

一个是标签映射,一个是数据集感知的焦点损失;第二个也是针对focal loss的改进。

 

【未完待续】

 

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值