​NeurIPS 2023 | RayDF:实时渲染!基于射线的三维重建新方法

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【NeRF和三维重建】微信交流群

在CVer微信公众号后台回复:RayDF,可以下载本论文pdf和代码,学起来!

c7405d92cbe010440c9b1f278a47e2d5.png

RayDF: Neural Ray-surface Distance Fields with Multi-view Consistency

论文链接:https://arxiv.org/pdf/2310.19629

代码链接:https://github.com/vLAR-group/RayDF

主页:https://vlar-group.github.io/RayDF.html

方法流程:

cb47ef94aa86cf82483ea7804d5a8efa.jpeg

图 1 RayDF的整体流程和组成部分

一、Introduction

在机器视觉和机器人领域的许多前沿应用中,学习准确且高效的三维形状表达是十分重要的。然而,现有的基于三维坐标的隐式表达在表示三维形状或是渲染二维图像时,需要耗费昂贵的计算成本;相比之下,基于射线的方法则能够高效地推断出三维形状。但是,已有的基于射线的方法没有考虑到多视角下的几何一致性,以至于在未知视角下难以恢复出准确的几何形状。   

针对这些问题,本论文提出一个全新的维护了多视角几何一致性的基于射线的隐式表达方法RayDF。该方法基于简单的射线-表面距离场(ray-surface distance field),通过引入全新的双射线可见性分类器(dual-ray visibility classifier)和多视角一致性优化模块(multi-view consistency optimization module),学习得到满足多视角几何一致的射线-表面距离。实验结果表明,改方法在三个数据集上实现了优越的三维表面重建性能,并达到了比基于坐标的方法快1000倍的渲染速度(见Table 1)。

66d78f3b5007cbaf8850651f81b283d9.png

主要贡献如下:

  • 采用射线-表面距离场来表示三维形状,这个表达比现有的基于坐标的表达更高效。

  • 设计了全新的双射线可见性分类器,通过学习任意一对射线的空间关系,使得所学的射线-表面距离场能够在多视角下保持几何一致性。

  • 在多个数据集上证明了该方法在三维形状重建上的准确性和高效性。

二、Method

2.1 Overview

如图1所示,RayDF包含两个网络及一个优化模块。对于主网络ray-surface distance network,只需输入一条射线,即可得到射线起点到射线打到的几何表面点之间的距离值。其中,如图2所示,RayDF使用一个包围三维场景的球对输入的射线进行参数化,将参数化得到的四维球坐标(入射点和出射点)作为网络输入。对于辅助网络dual-ray visibility classifier,输入一对射线和一个几何表面点,预测两条射线之间的相互可见性。这个辅助网络在训练好之后,将在后续multi-view consistency optimization module中起到关键作用。   

4fa9647ed62449a8cb2c0a17e9a95cba.jpeg

图 2 射线-表面距离场的射线参数化及网络结构

2.2 Dual-ray Visibility Classifier

该方法中的辅助网络是一个预测输入的两条射线是否能同时看到一个表面点的二元分类器。如图3所示,将输入的两条射线所得特征取平均值,以确保预测的结果不受两条射线的顺序所影响。同时,将表面点进行单独编码得到的特征拼接在射线特征之后,以增强射线特征,从而提升分类器的准确性。

53e4f44436721dbdbd1391fc94a3713f.jpeg

图 3 双射线可见性分类器的框架结构

2.3 Multi-view Consistency Optimization

以设计的主网络ray-surface distance network和辅助网络dual-ray visibility classifier为铺垫,引入多视角一致性优化这一关键模块,对两个网络进行two-stage训练。

(1) 首先为辅助网络dual-ray visibility classifier构造用于训练的射线对。对于一张图片中的一条射线(对应图片中的一个像素),通过其ray-surface distance可知对应的空间表面点,将其投影到训练集中的剩余视角下,即得到另一个射线;而该射线有其对应的ray- surface distance,文章设置阈值10毫米来判断两条射线是否相互可见。

(2) 第二阶段是训练主网络ray-surface distance network使其预测的距离场满足多视角一致性。如图4所示,对于一条主射线及其表面点,以该表面点为球心均匀采样,得到若干条multi-view ray。将主射线与这些multi-view ray一一配对,通过训练好的dual-ray visibility classifier即可得到其相互可见性。再通过ray-surface distance network预测这些射线的ray-surface distance;若主射线与某一条采样射线是相互可见的,那么两条射线的ray-surface distances计算得到的表面点应是同一个点;依此设计了对应的损失函数,并对主网络进行训练,最终可以使ray-surface distance field满足多视角一致性。   

cad1b7fd6cb4dbf3b9030b807e209fec.jpeg

图 4 多视角射线采样

2.4 Surface Normal Derivation and Outlier Points Removal

由于在场景表面边缘处的深度值往往存在突变(存在不连续性),而神经网络又是连续函数,上述ray-surface distance field在表面边缘处容易预测出不够准确的距离值,从而导致边缘处的几何表面存在噪声。好在,设计的ray-surface distance field有一个很好的特性,如图5所示,每个估计的三维表面点的法向量都可以通过网络的自动微分以闭合形式轻松求出。因此,可以在网络推理阶段计算表面点的法向量欧氏距离,若该距离值大于阈值,则该表面点被视作离群点并剔除,从而得到干净的三维重建表面。

1a1c17e0305d498377a23a6927a099b7.png

图 5 Surface normal计算

三、Experiments

为了验证所提出方法的有效性,本文在三个数据集上进行了实验,分别是object-level的合成数据集Blender [1]、scene-level合成数据集DM-SR [2]、scene-level真实数据集ScanNet [3]。论文选取了七个baselines进行性能对比,其中OF [4]/DeepSDF [5]/NDF [6]/NeuS [7]是基于坐标的level-set方法、DS-NeRF [8]是有depth监督的NeRF-based方法,LFN [9]和PRIF [10]是基于射线的两个baselines。   

由于RayDF方法很容易直接增加一个radiance分支来学习纹理,从而和上述支持预测radiance field的baselines进行比较。因此,论文对比实验分为两组,其中,Group 1只预测distances (几何),Group 2同时预测distances和radiances(几何和纹理)。

3.1 Evaluation on Blender Dataset

从Table 2和图6可以看出,在Group 1和2中,RayDF在表面重建上取得了更优的结果,尤其是在最重要的 ADE 指标上明显优于基于坐标和射线的baselines。同时在radiance field rendering上,RayDF也取得了与DS-NeRF相当的性能,并优于LFN和PRIF。

999e50cc7a228cbbfe342481fc140e57.png

68ca8fad8083101526f1d629a558ce25.png

图 6 Blender数据集可视化对比

3.2 Evaluation on DM-SR Dataset

从Table 3可以看出,在最关键的 ADE 指标上,RayDF超越了所有baselines。同时,在Group 2的实验中,RayDF能够在获得高质量的新视图合成的同时,保证恢复出准确的表面形状(见图7)。   

466d866b7b3f958fde4ac666748c79ff.png9536fc418200694f5dedb633531959b6.png

图 7 DM-SR数据集可视化对比

3.3 Evaluation on ScanNet Dataset

Table 4比较了RayDF和baselines在具有挑战性的真实世界场景中的性能。在Group 1和2中,RayDF在几乎所有评估指标上都明显优于baselines,展示出了在恢复复杂的真实世界三维场景方面的明显优势。   

82e7172a28e27f8a5ef28877d0bc362f.png

dda79e936131e8fcf8adbc7f39cd4a38.png

图 8 ScanNet数据集可视化对比

3.4 Ablation Study

论文在Blender数据集上进行了消融实验,其中Table 5展示了在十分关键的dual-ray visibility classifier上的消融实验结果。

  • 如Table 5 (1)所示,如果没有dual-ray visibility classifier的帮助,ray-surface distance field则会无法对新视角下的射线预测出合理的距离值(见图9)。

  • 在classifier的输入中,选择了输入表面点坐标来作为辅助,如Table 5 (2)和(3)所示,若选择输入表面点距离值作为辅助或是不提供辅助信息,分类器会获得较低的准确率和F1分数,导致为ray-surface distance network提供的可见性信息不够准确,进而预测出错误的距离值。   

  • 如Table 5 (4)所示,以非对称的方式输入一对射线,所训练得到的分类器准确率较高,但F1分数较低。这表明,这种分类器的鲁棒性明显低于用对称输入射线训练的分类器。

其他ablations可在论文及论文附录中查看。

d2a5be7aa1984d32bd9ff786ba117b10.png

c7762bae43669cf625a69e1059fd1c19.png

图 9 使用与不使用分类器的可视化对比

四、Conclusion

总的来说,论文证明了通过使用基于射线的多视角一致性框架,确实可以高效、准确地学习三维形状表示。论文使用简单的射线-表面距离场来表示三维形状几何图形,并通过新颖的双射线可见性分类器进一步实现多视角几何一致性。在多个数据集上都证明了RayDF方法具有极高的渲染效率和出色的性能。欢迎进一步对RayDF框架进行扩展。更多可视化结果可在主页查看:

https://vlar-group.github.io/RayDF.html    

在CVer微信公众号后台回复:RayDF,可以下载本论文pdf和代码,学起来!

CVPR / ICCV 2023论文和代码下载

 
 

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集
NeRF和三维重建交流群成立
扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-NeRF或者三维重建微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。
一定要备注:研究方向+地点+学校/公司+昵称(如NeRF或者三维重建+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer444,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看f5636447aaa8e7bcb999209062baa937.gif
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值