题目:NeuralRecon: Real-Time Coherent 3D Scene Reconstruction from Monocular Video
神经重建:从单目视频中实时连贯的3D场景重建
作者:Xi Chen; Jiaming Sun; Yiming Xie; Hujun Bao; Xiaowei Zhou
源码链接: https://github.com/zju3dv/NeuralRecon
摘要
我们提出了一个名为 NeuralRecon 的新框架,用于从单目视频中实时重建三维场景。与先前的方法不同,先前的方法在每个关键帧上分别估计单视图深度图,然后将其融合,我们提出直接通过神经网络顺序地重建每个视频片段的局部表面,表示为稀疏的 TSDF 体积。使用基于门控循环单元(Gated Recurrent Units, GRU)的学习型 TSDF 融合模块来指导网络从先前

NeuralRecon是一个创新框架,能够从单目视频实时重建连贯的3D场景,不同于以往逐帧深度图估计方法。通过神经网络直接重建局部TSDF体积并融合,捕捉局部平滑和全局形状信息,实现准确、连贯的重建。同时,使用GRU融合模块确保片段间一致性。系统还能进行语义分割,自监督微调提高新场景的重建质量。实验表明,NeuralRecon在准确性和速度上优于同类方法。
订阅专栏 解锁全文
63

被折叠的 条评论
为什么被折叠?



