(2021 cnki) 基于跨模态特征融合的 RGB-D 显著性目标检测 (B类)

一、作者

​ 陈正, 赵晓丽* , 张佳颖, 尹明臣, 叶翰辰, 周浩军 (上海工程技术大学 计算机辅助设计与图形学学报)

二、原文地址

2021 cnki

三、摘要

​ 为了解决基于彩色图像的显著性检测在多目标或小目标等场景下无法准确检测出显著目标的问题, 提出了一种基于 RGB-D 跨模态特征融合的显著性检测网络模型, 该网络模型以改进的全卷积神经网络(FCN)为双流主干网络, 分别提取彩色与深度特征并作出预测, 最后利用 Inception 结构融合生成最终显著图. 针对原 FCN 实际感受野远低于理论感受野, 没有真正利用图像全局信息的问题, 设计了双分支结构的全局与局部特征提取块, 利用全局特征分支提取全局信息并指导局部特征提取, 并以此构建了改进的 FCN. 此外, 考虑到不同层级上彩色与深度特征之间的差异性, 提出了跨模态特征融合模块, 采用点积有选择性地融合彩色和深度特征, 与加法和级联相比, 采用点乘可以有效减少噪声与冗余信息.

四、主要内容

4.1 总体网络结构图

KMT_RGB-D

4.2 GL Block (全局特征提取和局部特征提取)

跨模态融合_GL_block

4.3 CFFM (特征交叉融合)

  • 彩色图具有鲜明的外观与纹理信息
  • 深度图提供了清晰的目标形状、轮廓和空间结构

跨模态融合_CFFM

f r = f r + W 2 ( W r ( f r ) × W d ( f d ) ) f d = f d + W 2 ( W r ( f r ) × W d ( f d ) ) f_r=f_r+W_2(W_r(f_r)\times W_d(f_d))\\ f_d = f_d + W_2(W_r(f_r) \times W_d(f_d)) fr=fr+W2(Wr(fr)×Wd(fd))fd=fd+W2(Wr(fr)×Wd(fd))

4.4 LOSS (Focal Loss 平衡正负样本)

  • Focal Loss 在 BCE 的基础上加入 γ \gamma γ参数, 降低易分类样本的损失, 使网络更关注于困难样本, 同时加入平衡因子 α \alpha α , 增大前景对于损失函数的贡献, 以平衡正负样本.

L ( y − h a t , y ) = { − α ( 1 − y − h a t ) γ   l g y − h a t   , y = 1 − ( 1 − α ) ( y − h a t ) γ   l g ( 1 − y − h a t ) ,   y = 0 L(y-hat, y) = \begin{cases}-\alpha (1-y-hat)^\gamma \ lgy-hat\ , y=1 \\ -(1-\alpha)(y-hat)^ \gamma \ lg(1-y-hat), \ y=0 \end{cases} L(yhat,y)={α(1yhat)γ lgyhat ,y=1(1α)(yhat)γ lg(1yhat), y=0

4.5 评价指标

  • PR曲线
  • F值
  • MAE
  • S值

S = α S o + ( 1 − α ) S r S r : 区 域 感 知 结 构 相 似 性 S o : 对 象 感 知 结 构 相 似 性 S = \alpha S_o+(1-\alpha)S_r \\ S_r:区域感知结构相似性\\ S_o:对象感知结构相似性 S=αSo+(1α)SrSr:So:

五、结论与展望

跨模态融合_result

  • 进一步的研究可以着眼于如何更好地融合RGB和深度信息, 充分利用深度和RGB互补信息, 丰富图像细节, 以得到更好的显著性检测结果.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值