作者:小张Tt | 来源:计算机视觉工坊
在公众号「计算机视觉工坊」后台,回复「原论文」即可获取论文pdf。
添加微信:dddvisiona,备注:立体匹配,拉你入群。文末附行业细分群。
本文引入了Evidential Local-global Fusion (ELF)框架,用于解决立体匹配中的可信度估计和融合问题。与传统方法仅预测视差图不同,作者的模型估计了基于证据的视差,考虑了模糊不确定性和认知不确定性。通过正态逆伽马分布进行证据融合,实现了多层次预测的内部证据融合和基于成本体积和变换器的立体匹配的证据间融合。实验结果表明,所提出的框架有效地利用了多视角信息,在准确性和跨域泛化性能上达到了最先进水平。
1 前言
立体匹配是在给定一对矫正图像的情况下,估计密集视差图的目标,是各种应用中最基础的问题之一,例如3D重建、自动驾驶和机器人导航。借助卷积神经网络的快速发展,许多立体匹配模型通过构建代价