阅读文献-M3VSNet: Unsupervised Multi-metric Multi-view Stereo Network(2020.5.28)

M3VSNet: Unsupervised Multi-metric Multi-view Stereo Network

1.四个问题
要解决什么问题
3D reconstruction
针对有监督的学习方法,
用什么方法解决
1.提出一种多度量无监督MVS网络,可用于没有任何真实3D训练数据的MVS。
2.提出一种新的多度量损失函数,考虑了像素值之外的匹配对应的不同视角。
3.在3D点云格式中加入了法线深度一致性,来提高估计深度图的准确性和连续性。
效果如何
优于之前SOTA无监督方法,在DTU数据及上与原始MVSNet性能相当,在Tanks&Temples基准测试中展现了出色的泛化能力。
还存在什么问题
与同类无监督方法相比有优势,但总体来看,没有优势。
论文简介
摘要:与传统的 MVS 方法相比,目前具有基于监督学习的网络的多视图立体 (MVS) 方法具有令人印象深刻的性能。 然而,用于训练的真实深度图很难获得,并且在有限的场景中。 在本文中,我们提出了一种新的无监督多度量 MVS 网络,名为 M3VSNet,用于在没有任何监督的情况下进行密集点云重建。 为了提高点云重建的鲁棒性和完整性,我们提出了一种新的多度量损失函数,该函数结合了逐像素和逐特征损失函数,从匹配对应的不同角度学习固有约束。 此外,我们还在 3D 点云格式中加入了法线深度一致性,以提高估计深度图的准确性和连续性。 实验结果表明,M3VSNet 建立了最先进的无监督方法,并在 DTU 数据集上实现了与以前的监督 MVSNet 相当的性能,并在 Tanks & Temples 基准测试上展示了强大的泛化能力,并得到了有效的改进。
网络结构:
在这里插入图片描述
实验结果:
在这里插入图片描述
实验效果展示:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值