三维视觉论文阅读:PSMNet2018双目立体匹配

论文

Pyramid Stereo Matching Network

摘要

学习双目立体匹配,传统方法里不能不知道SGM,深度学习方法里则不能不知道PSMNet。这篇文章在GCNet的基础上,对网络进行了全面的改进,使得双目立体匹配迈上了一个新的台阶。

网络模型

熟悉GCNet后去理解PSMNet的网络模型,还是比较容易的。PSMNet整体还是可以分成4个模块,作者对其中的“特征提取”和“代价聚合”两个模块进行大幅度的改进。“代价计算”和“可微视差生成”则保持原样。
在这里插入图片描述
另外,文章中给出了详细的网络参数,如下
在这里插入图片描述

1 特征提取

在GCNet里,通过一些堆砌的卷积层完成特征提取,导致最终提取的特征的感受野其实是非常小的,难以形成对大范围纹理的理解;并且如果简单的通过扩大卷积核,又会大幅度的提高计算量,反而可能会得不偿失。
在这篇文章里,作者使用了SPP模块和带洞卷积(对应conv3_xconv4_x)两种工具,来尽可能的增大感受野。

2 代价聚合

在GCNet中,代价聚合仅仅使用了一个3D-UNet结构,网络可能还是对代价的理解仍旧不够深刻。本篇论文的作者可能是受到了FlowNet2的影响,使用3个串联在一起的3D-UNet结构,并且每一个3D-UNet都输出一个预测值。

损失函数

PSMNet的损失函数引入了一个类似Huber的操作,对粗差进行一定程度的抑制。除此之外,需要注意的是,前文已经说过3个3D-UNet都会预测视差;因此,实际的loss是由三个 L L L加权组合得到。
在这里插入图片描述

结果与讨论

1 模型参数设计

在本篇文中,作者也秉承炼丹学的一贯原则,对网络中的一些参数进行实验验证。

下表验证了带洞卷积、SPP和堆叠3D-UNet的作用。显然所有的东西都用上才是最棒的。
在这里插入图片描述
下表展示了如何通过炼丹的方式确定3个UNet的loss之间权重设计的问题。
在这里插入图片描述

2 结果

PSMNet的结果是很棒的。
在这里插入图片描述

  • 0
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值