2019 CVPR 目标检测 论文简述整理

本文汇总了2019年计算机视觉大会CVPR中关于目标检测的重要论文,深入浅出地介绍了各篇论文的核心思想和技术创新,涵盖了深度学习、检测框架优化、实例分割等方面,为研究者提供了宝贵的参考资料。
摘要由CSDN通过智能技术生成

2019 CVPR (40篇)

题目

发表单位

针对问题

创新点

性能

Activity Driven Weakly Supervised Object Detection

 

活动驱动的弱监督目标检测

南加利福尼亚大学

视频目标检测

利用视频或者图片中的动作信息为目标的位置提供线索。

我们尝试不仅利用对象类标签,而且利用与数据关联的操作标签。我们证明,图像/视频中描述的动作可以提供有关关联对象位置的强提示。我们学习了依赖于动作的物体的空间先验(例如“球”在“踢球”中更接近“人的腿”),并在同时训练关节物体检测和动作分类模型之前将其合并。

在Charades视频数据集上,我们的方法比目前最先进的(SOTA)方法在mAP上的性能提高了6%以上。

A Simple Pooling-Based Design for Real-Time Salient Object Detection

 

一种简单的基于池化的实时显著目标检测设计

南开大学

深圳大学

显著性目标检测

通过扩大卷积神经网络中的池化的作用解决显著目标检测问题。基于U形结构,我们首先在自底向上的路径上建立了一个全局导航模块(GGM),目的是在不同的特征层次上提供潜在显著目标的位置信息。进一步设计了一个特征聚合模块(FAM),使粗层次语义信息与自上而下的细层次特征很好地融合。通过在自顶向下路径中的融合操作之后添加FAMs,GGM中的粗层次特征可以与不同尺度的特征无缝融合。这两个基于池的模块允许高级语义特征逐步细化,从而生成细节丰富的显著性映射。

实验结果表明,与现有方法相比,本文提出的方法能够更准确地定位细节锐化的显著目标,从而大大提高了定位性能。              我们的方法速度也很快,在处理300×400的图像时可以以超过30fps的速度运行

MLM---

A Mutual Learning Method for Salient Object Detection with intertwined Multi-Supervision

大连理工

显著性目标检测

一个新的互动式学习模型(MLM)利用显著目标检测、前景轮廓检测和边缘检测的监督来训练显著性检测网络

首先,我们以一种交织的方式利用显著目标检测和前景轮廓检测任务来生成具有均匀高光的显著地图。其次,前景轮廓和边缘检测任务相互引导,从而实现精确的前景轮廓预测,降低边缘预测的局部噪声。此外,我们还开发了一个新的相互学习模块(MLM),作为我们方法的基础。每个MLM模块由多个网络分支组成,以相互学习的方式进行训练,大大提高了性能。

 

CPFE---

Pyramid Feature Attention Network for Saliency detection

(金字塔特征注意网络)

哈工大

(显著性目标检测)

针对“CNNs的不同特征映射和同一映射中的不同特征在显著性检测中应发挥不同的作用”问题

提出了PFAN,以增强高层次的上下文特征和低层次的空间结构特征。针对多尺度高层次特征映射,设计了一个上下文感知金字塔特征提取(CPFE)模块来获取上下文特征。对CPFE特征图和低层特征图分别采用通道注意(CA)模型和空间注意(SA)模型进行融合,检测出显著区域。最后,提出了一种边缘保持损失来获得显著区域的精确边界。

 

Cascaded Partial Decoder for Fast and Accurate Salient Object Detection

快速准确检测显著目标的级联局部译码器

中科院

显著性目标检测

一种新的级联部分解码器框架,抛弃较浅层的特征,对较深层的特征进行细化。本文提出了一种新的级联部分解码器(CPD)框架,用于快速、准确地检测显著目标。一方面,该框架构造部分解码器,丢弃较浅层的较大分辨率特征,以加速。另一方面,我们观察到,结合较深层的特征,可以得到相对精确的显著性图。因此,我们直接利用生成的显著图来细化骨干网的特征。 该策略有效地抑制了特征中的干扰,显著地提高了特征的表示能力。

在五个基准数据集上的实验表明,提出的模型不仅达到了最先进的性能,而且运行速度比现有模型快得多。此外,所提出的框架进一步应用于改进现有的多层次特征聚合模型,并显著提高了它们的效率和准确性。

BASNet: Boundary-Aware Salient Object Detection

加拿大阿尔伯塔大学

显著性目标检测

在本文中,我们提出了一个预测-精炼架构,BASNet,以及一个新的边界感知显著目标检测混合损失函数。

具体地说,该体系结构由一个密集监督的编解码网络和一个分别负责显著性预测和显著性映射求精的残差求精模块组成。

混合损失通过融合二元交叉熵(BCE)、结构相似性(SSIM)和交并损失(IoU),引导网络在像素级、块级和map级三个层次上学习输入图像和真实框之间的转换。该预测-细化结构能够有效分割目标的显著区域,准确预测边界清晰的精细结构。

 

在6个公共数据集上的实验结果表明,该方法在区域和边界评价方面均优于最新方法。我们的方法在一个GPU上运行速度超过25fps。

Diversify and Match: A Domain Adaptive Representation Learning Paradigm for Object Detection

一种面向对象检测的领域自适应表示学习范式

韩国先进科学技术学院

(域自适应方法)

旨在同时解决像素级自适应的不完全平移问题和特征级自适应的源偏判别问题

提出的新方法分为两个阶段,域多样化(DD)和多域不变表示学习(MRL)。在DD阶段,我们通过从源域生成各种不同的移位域,使标记数据的分布多样化。在MRL阶段,我们使用多域判别器进行对抗性学习,以鼓励特征在域之间不可区分。 DD解决

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值