【CVPR 2019】Strong-Weak Distribution Alignment for Adaptive Object Detection

1 介绍

此文章是【CVPR 2019】的文章,主要讲述了Strong-Weak的DA方法;

2 原文链接

《Strong-Weak Distribution Alignment for Adaptive Object Detection》

3 论文译读

3.0 摘要

作者提出了一种用于目标检测的从label-rich到label-poor域的无监督自适应方法,该方法可以极大地降低检测任务中的标注成本。近期,一些方法使用对抗损失对源图像和目标图像的分布进行对齐,这些方法被正式在自适应目标分类器上证明是有效的。然而,对于目标检测,对源图像和目标图像的分布在全局图像级别上进行完全匹配可能无法成功,因为域之间可能会有不同的场景布局和目标对象的不同组合。在另一方面,对如纹理和色彩等局部特征的强匹配是有道理的,因为强匹配不会改变类别层面的语义。这启发我们提出一种新的方法,基于强局部对齐和弱全局对齐进行检测器自适应。本文的主要贡献在于弱对齐模型使用对抗对齐损失关注全局相似图像,而相对来说弱化对全局不相似图像的对齐。除此之外,作者设计了一种强域对齐模型仅观测特征图的局部感受野。实验证明了所提出方法在包含重域飘逸和轻域飘逸的四项数据集上是有效的。

3.1 引言

深度卷积神经网络极大地提升了目标识别精度【18_2012ImageNetCNN】,但是仍然依赖于大量用于训练的标注数据。对于目标检测,数据标注是特别繁重的:每张图像中单个目标类别的每个实例都需要用精确的限位框标注出来。从label-rich的域中迁移预训练模型是一项具有吸引力的解决方案,但是数据集偏差常常会降低模型在新数据上的泛化性能【31_2010AdaptingVC】。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值