多模态(RGB-D)——FuseNet

  • 《FuseNet: Incorporating Depth into Semantic Segmentation via Fusion-based CNN Architecture》
    2016,Hazirbas C, Ma L, Domokos C, et al. FuseNet

FuseNet 是一种基于RGBD图像做语意分割的网络,在网络的前端采用两个CNN结构分别提取RGB图像和深度图像的特征,采用Sparse Fusion的方式将深度网络的部分特征融合到RGB网络中。
1.FuseNet网络结构:
在这里插入图片描述
作者提出了一种解决方法:如何去合并互补的深度信息到语义分割框架。双分支的网络同时从RGB和Depth提取特征,并将Depth特征融入RGB的特征图中作为下一层的输入。

2. 融合策略
在这里插入图片描述
作者提出了两种不同的RGB和Depth channels的融合方法,分别是dense and sparse fusion。
sparse fusion:融合层仅插入池化层之前
dense fusion:融合层插入CBR block之后
作者在文章中提出了一个理论,网络的浅层主要提取边缘特征,而RGB图像和深度图像所表现的边缘特征有很大不同。比如对与无结构的边缘主要依靠颜色区分,对于无纹理的边缘主要依靠结构深度区分。所以作者选择从浅层开始对特征进行融合并且通过实验证明浅层的特征融合对性能有很大的提升。
在这里插入图片描述
3.结果分析
图像输入224*224,RGB的resize采用双线性插值,Depth的resize采用最近邻插值。
网络结构:VGG-16
测试结果:
在这里插入图片描述
SparseFusion and DenseFusion by SF,DF,respectively。
从结果可以看出:堆叠Depth和HHA进入RGB能带来轻微的提升,相比于单独的color、depth或HHA。融合的方式提升明显。
因为原始的VGG-16有5层池化,所以有相同数量的fusion layers SF1到SF5,然而在前4层池化层之前融合都有提升,可能原因是准确率饱和,Depth已经提供了非常有区分力的特征在低维去补充RGB的纹理信息。同样的趋势在DF中也存在。

小结:
与以往的多模态融合方式输入端、特征端融合略有不同,作者提出了dense and sparse fusion两种新的融合策略,在分支(双流)网络中进行间接性特征融合。从结果来看,采用Sparse Fusion的方式将深度网络的部分特征融合到RGB网络中效果比较好。


注:博众家之所长,集群英之荟萃。

在这里插入图片描述

  • 6
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Peanut_范

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值