2020RGBD显著性目标检测论文32篇

本文汇总了2020年关于RGBD显著性目标检测的32篇论文,探讨了特征融合、深度信息处理、不准确深度图问题等多个方向。研究指出,深度信息能有效增强显著目标检测,但不准确的深度图可能导致性能下降。文中提出多种融合策略,如注意力机制、门控网络和多模态权重共享,以优化RGB和深度信息的融合,提高检测精度。实验显示,这些方法在多个公共数据集上超越了现有RGBD SOD方法。
摘要由CSDN通过智能技术生成
  • Is Depth Really Necessary for Salient Object Detection?

显著目标检测(SOD)是许多计算机视觉应用的一个重要和初步的任务,随着深度cnn的发展,其研究已经取得了一定的进展。现有的方法大多依靠RGB信息来区分显著性目标,在一些复杂的场景中存在困难。为了解决这一问题,近年来许多基于RGB的网络被提出,它们采用深度图作为独立的输入,并将特征与RGB信息融合。借鉴RGB方法和RGBD方法的优点,提出了一种新的深度感知显著目标检测框架,该框架具有以下优点:1)只使用深度信息作为训练数据,在测试阶段只依赖RGB信息。2)多层次深度感知规则化,全面优化SOD特征。3)深度信息也作为错误加权图来纠正分割过程。这些深刻的设计相结合,我们第一次尝试实现一个统一的depth-aware框架只有RGB推理信息作为输入,这不仅超过了最先进的性能在五个公共RGB SOD基准,而且超过RGBD方法——基于五个基准以绝对优势取胜,同时采用更少的信息并实现轻量级。代码和模型将公开提供。

特征融合21篇

  • Depth-induced Multi-scale Recurrent Attention Network for Saliency Detection DMRA2019

在这项工作中,我们提出了一个新的深度诱导的多尺度反复注意网络显著性检测。尤其是在复杂的场景中,它能达到戏剧性的效果。实验证明,我们的网络有三个主要贡献,具有显著的实用价值。首先,我们设计了一个有效的利用残差连接的深度细化块,从RGB和深度流中充分提取和融合多级配对互补线索。其次,创新地将具有丰富空间信息的深度线索与多尺度的文本特征相结合,以精确定位突出目标。第三,我们通过一种新颖的大脑内部生成机制激发的周期性记忆模块来提高我们的模型s的性能。该模块通过对融合特征的语义关系的综合学习和对局部细节的不断优化结合面向记忆的场景理解,可以得到更多的显著性结果。此外,我们建立了一个包含更复杂场景的大规模RGB-D数据集,这有助于全面评估显著性模型。在6个公共数据集上的大量实验和我们的实验表明,我们的方法能够准确地识别突出的目标,并且在16种最先进的RGB和RGB- d方法中始终取得优异的性能。

  • Cascade Graph Neural Networks for RGB-D Salient Object Detection

目前的研究要么简单地从相应的深度图中提取先验知识来处理rgb图像,要么盲目地融合颜色和几何信息来生成粗糙的深度感知represresentations,阻碍了RGB-D显著性检测器的性能。

在本工作中,我们引入了级联图神经网络(caso - gnn)来学习RGB-D显著目标检测的强大表示,这是一个能够通过一组级联图来综合提取和推理这两个数据源之间的相互利益的统一框架。级联图推理(cascadegraph Reasoning, CGR)模块用于学习强大的密集特征嵌入,可以很容易地推导出显著性映射。与之前的方法相比,对数据源之间的高层关系进行明确的建模和推理,使我们能够更好地克服诸如遮挡和歧义等挑战。大量的实验表明,在几种广泛使用的基准测试中,Cas-Gnn取得了比所有现有RGB-D SOD方法更好的性能

  • Synergistic saliency and depth prediction for RGB-D saliency detection 

当RGB通道的图像/地面线索很弱时,RGB- d相机提供的深度信息可以用于分割突出的物体。这激发了一些RGB-D显著性数据集和算法的开发,这些数据集和算法使用RGB-D数据的所有四个通道进行训练和推理。但现有的RGB-D显著性数据集较小,导致过拟合和gen- eralization较差。在此,我们展示了一个RGB- d显著性检测系统,该系统可以有效地联合使用带有手绘标记显著ground truth的大型RGB显著性数据集,以及不带有显著ground truth的较小RGB- d显著性数据集。这种新颖的预测导向交叉细化网络被训练来联合估计显著性和深度,允许在为两个各自任务调整的特征表示之间相互细化。一个对抗性阶段解决了RGB和RGB- d显著性数据集之间的域转移,允许显著性和深度估计的表示在任何一个上对齐。关键的是,我们的系统不需要突出的地面真相的RGB-D数据集,使它更容易扩展这些数据集的训练,并没有重新奎尔的D通道的推理,允许方法被用于更广泛的应用,只有RGB数据是可用的。评价七RGBD数据表明,不使用hand-labelled凸起地面实况RGB-D数据集和只使用这些数据集的RGB通道推断,我们的系统实现每——性能与最先进的方法,使用手——标记显著地图RGB-D数据训练和使用这些数据集的深度渠道推理。

  • UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional Variational Autoencoders

在本文中,我们提出了第一个框架(UC-Net)通过学习数据标注过程,将不确定性用于RGB-D显著性检测。现有的RGB -D显著性检测方法将显著性检测任务视为一个点估计问题,并根据确定性学习管道生成单个显著性映射.

受显著性数据标记过程的启发,我们提出了基于方差自编码器的概率RGB-D显著性检测网络,以模拟人类的不确定性,并通过对潜在空间的采样,为每个输入图像生成多个显著性映射。

  • Cross-Modal Weighting Network for RGB-D Salient Object Detection

深度图包含几何线索,以协助显着目标检测(SOD)。在本文中,我们提出了一种新的交叉模态加权(CMW)策略,以鼓励RGB和深度通道之间的全面互动,为RGB- d SOD。具体地,开发了三个rgb深度交互模块CMW- l、CMW- m和CMW- H,分别处理低、中、高层的跨模态信息融合。

这些模块使用深度到rgb权重(DW)和rgb到rgb权重(RW),允许不同网络块生成的特征层之间进行丰富的跨模式和跨尺度交互。为了有效地训练所提出的交叉模态权值网络(CMWNet)ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

多模态

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值