DepthPano-TOG2020 学习整理(一)——有关全景图的三维场景重建

Noise-Resilient Reconstruction of Panoramas and 3D Scenes using Robot-Mounted Unsynchronized Commodity RGB-D Cameras论文阅读(一)

本文核心思想

    文章核心思想是通过构建全景图来实现大型室内场景模型的三维重建,全文主要分为两个部分,第一部分是有关全景图的重建,即panorama construction,第二部分是全景图的整合,即panorama integration,通过几张全景图来实现室内场景的三维重建。

第一阶段,全景图的构建
在这里插入图片描述
第二阶段,通过对多张全景图的整合实现室内场景的三维重建(下图是通过6张全景图实现的)
在这里插入图片描述

前言

    作者提出了一种two-stage的方法,即如上所述,先构建三维全景图,然后再将其拼接起来以进行大型室内场景的抗噪三维重建。全景图的获取是通过基于Turtlebot3机器人平台的多个非同步的RGB-D相机实现的,这些相机可以在场景中的不同位置执行原位旋转,作者在论文中提出了同时跟踪这些不同步相机的解决方案。之后,在将原始帧整合到等矩形全景图的过程中,作者从分配给相同像素的多次测量中得到不确定性估计,这对后面噪声模型的建模以及提高全景图乃至整个全局的几何质量起到了很大作用。

论文解决的两大问题

不同步相机的校准与同步问题

    通过3D-3D的方式构建360°的全景图的技术已经相当成熟,而对于通过单个RGB-D相机实现的技术,当其传感器运动时的自由度受到限制时,会影响视野,因此无法涵盖大部分的球形全景图。可以通过利用多个RGB-D相机来解决视野狭窄这一问题,但是由此会引入新的问题就是不同步相机之间的校准以及同步问题。利用多台相机进行全景扫描的首要问题就是如何恢复这些RGB-D帧的相对姿势,但是在没有外部定位传感器可用的情况下,或者很难对定制的装配进行精确的校准时,从技术上解决这一问题的另一种选择就是依靠视觉功能进行跟踪。但不幸的是,大多数的商品深度传感器不支持快门同步,而如果忽略timestamps期间的运动而强行进行分组会导致未对准的情况,如下图所示。
在这里插入图片描述
    对于此问题,论文实现的解决策略是基于由in-place旋转机器人驱动的多个相机的运动共识来实现协作扫描。使得相机与及机器人保持同轴度,这样就可以在不依赖于同步性或显着地标共现的情况下,共同得出其状态。这是通过在因子图优化框架下的几种新颖的正则化约束下实现的。如下图所示,其装配实现方案。
在这里插入图片描述

传感器固有噪声问题

    当使用高质量的激光扫描仪时这种噪声并不严重,但对于商品RGB-D帧而言这将变得至关重要。先前的工作都是在帧集成期间处理噪声,如 TSDF等,但很少有人进一步考虑了在帧配准期间噪声的影响。此外,在全景图构建后对深度噪声进行建模非常重要,因为全景图的对齐以及最终的合成都会受到这种不确定性测量的影响。因此,如何通过有效且适当组织的结构表示扫描数据并对其噪声进行建模也是全景图构建过程中的重要任务。
    对于这一问题,作者选择通过等边矩形图像格式来融合颜色和深度测量,以便在全景域中有效地组织和估计每个像素的不确定性。借助这种有组织的图像结构及其噪声模型,他们在这种图像域中就数据一致性来优化重建全景图的几何质量,并进一步考虑了随后的全景图配准以及和最终的全景图整合过程中噪声的影响。

假设与概述

    该论文的方法基于一个载有多个不同步RGB-D相机的扫描平台。在扫描之前,需要安装一个额外的防偏摄相机(鱼眼相机)进行联合校准,以在所有颜色和深度传感器上获取其内在和外在参数。然后,作者使用CLAMS 以保持原始深度测量不变。在扫描期间,要求平台在多个视点执行原位旋转。特别是对于轮式机器人,这可以通过为其两个驱动轮在不同方向上设置相同的速度来实现。对于每个RGB-D传感器,使用校准的外部参数将其深度帧映射到其对应的颜色帧。因此,输入即为一组由不同扫描位置聚类的带时间戳的RGB-D图像。
    论文的重建算法基于以下两个先决条件:(1)同轴度:所有摄像机的旋转轴应与静态轴同轴进行,这取决于装配时的平整地面。(2)平滑度:旋转也应平稳进行,这意味着在扫描过程中角加速度应保持较低。
    尽管由于不可预测的机器人晃动可能无法完全满足同轴度和平滑度的先决条件,但文中所述方法可以tolerant这些具有可配置参数的实际现象。(具体解释为panorama construction阶段的因子图的表示)

    重建过程分两个阶段执行,即全景图构建,该过程将in-place地将RGB-D流stitches到包含颜色,深度和附加每个像素深度不确定性的individual 360°全景图(如上图第一幅图所示 )。以及全景图集成,后者register and integrate 这些全景图以形成场景的完整3D表示(如上图第二幅图所示)。

    具体到每个阶段包含两个阶段:姿势估计和数据融合。在第一个阶段的姿态估计阶段中,文中的算法在考虑运动一致性的情况下使用额外的正则化来执行束调整(BA模型,因子图优化),以解决帧和旋转轴的姿态。然后,在其数据融合阶段中,作者将原始颜色和深度测量值变形为所需全景图的等矩形表示形式,以对传感器噪声进行统计建模,并进行优化以保持其几何质量。在第二阶段中,姿势估计阶段是通过将几何相关的空间相关全景图一致对齐以解决它们的混合不确定性,同时结合原始表面分布不确定性和之前提取的测量不确定性来完成。最后,在其数据融合阶段,基于这种混合的不确定性知识,这些对齐的全景图的估计姿势及其不确定的深度测量值将用于修改Final密集点云,以表示整个场景。

PS.有关于具体Consistency Regularization for Panoramic Scanning阶段的阅读分析笔记较为繁杂,可见下一篇博客,这里可以放一张因子图的注释图。
在这里插入图片描述

  • 3
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 场景重建中的光场问题是计算机视觉和计算机图形学领域的重要研究方向之一。以下是一些关于光场问题的经典文献,您可以参考: 1. Adelson, E. H., & Bergen, J. R. (1991). The plenoptic function and the elements of early vision. In Computational models of visual processing (pp. 3-20). MIT Press. 2. Levoy, M., & Hanrahan, P. (1996). Light field rendering. In Proceedings of the 23rd annual conference on Computer graphics and interactive techniques (pp. 31-42). ACM. 3. Ng, R., Levoy, M., Brédif, M., Duval, G., Horowitz, M., & Hanrahan, P. (2005). Light field photography with a hand-held plenoptic camera. Stanford Technical Report CTSR. 4. Wanner, S., & Goldluecke, B. (2012). Globally consistent depth labeling of 4D light fields. In Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on (pp. 41-48). IEEE. 5. Srinivasan, P. P., Garg, R., & Chellappa, R. (2017). Learning to synthesize 3D textured objects with GANs. In Proceedings of the IEEE International Conference on Computer Vision (pp. 3764-3773). 6. Mildenhall, B., Tancik, M., Barron, J. T., Brown, R. M., Gordon, W., & Ng, R. (2019). Local light field fusion: Practical view synthesis with prescriptive sampling guidelines. ACM Transactions on Graphics (TOG), 38(6), 1-17. 这些文献涵盖了光场相关的多个方面,如光场捕捉、重建、渲染和深度学习等。您可以根据自己的研究需要选择相应的文献进行阅读。 ### 回答2: 关于场景重建中的光场问题,您可以查阅以下一些相关文献: 1. "Light Field Reconstruction Using Convolutional Neural Network" by H. P. A. Lensch et al.: 这篇文献介绍了使用卷积神经网络(CNN)来进行光场重建的方法,提供了一种有效且高精度的光场重建算法。 2. "Light Field Reconstruction: A Review" by G. Wetzstein et al.: 这篇综述文献回顾了光场重建的发展历程,整合了各种光场重建方法的研究成果,并分析了各自的优缺点。 3. "Light Field Rendering and Image-Based Rendering" by M. Levoy et al.: 这篇文献介绍了光场渲染和基于图像的渲染技术的理论和实践,其中包括光场捕捉、重建和渲染的关键问题。 4. "A Theory of Plenoptic Multiplexing and Reconstruction" by R. Ng et al.: 这篇经典文献提出了光场多路复用和重建的理论,为光场成像理论奠定了基础,并提供了一些创新的方法和思路。 5. "Plenoptic Sampling" by S. J. Gortler et al.: 这篇研究论文介绍了几种光场采样方法,即如何选择和设计合适的采样策略,以获得高质量的光场数据。 除了上述文献,您还可以搜索相关会议和期刊,如"IEEE Transactions on Pattern Analysis and Machine Intelligence"、"Eurographics"等,以获取更多关于场景重建中光场问题的最新研究成果。此外,一些著名的计算机图形学和计算机视觉研究机构的网站(如斯坦福大学计算机图形学实验室、MIT计算机科学与人工智能实验室等)也可以提供有价值的信息和研究进展。 ### 回答3: 关于场景重建中的光场问题,您可以翻阅以下几类文献: 1. 计算机图形学与计算机视觉方面的综述性文献。这些文献会对光场重建的方法、原理和相关算法进行综述和比较,为您提供一个整体的了解。例如,《计算机图形学与几何处理》(Computer Graphics: Principles and Practice)一书中的相关章节,以及期刊《计算机图形学》(ACM Transactions on Graphics)和《IEEE计算机图形与应用》(IEEE Computer Graphics and Applications)中的综述文章。 2. 光场重建相关的研究论文。这些论文详细介绍了光场重建的具体原理、方法和实现,在其中您可以找到各种不同的光场重建算法和技术。一些重要的会议和期刊包括《国际计算机图形学与计算机视觉会议》(International Conference on Computer Vision and Graphics)、《欧洲计算机图形学会议》(European Conference on Computer Vision)、《计算机视觉与图像理解》(Computer Vision and Image Understanding)等。 3. 光场摄影和光场显示方面的研究文献。 光场重建技术与光场摄影、光场显示密切相关,因此研究文献可以给您提供更多与光场重建相关的信息。例如,《光场摄影学》(Light Field Photography)一书中的相关章节,以及期刊《计算摄影学院交易》(Transactions on Computational Imaging)中的研究论文。 此外,一些在线学术搜索引擎和学术数据库(如Google Scholar、IEEE Xplore、ACM Digital Library等)也是非常有用的资源,您可以通过关键词搜索相关信息和文献,以找到更多与光场重建问题相关的研究成果。 总之,通过综述性文献、研究论文以及相关的学术数据库和搜索引擎,您可以获取到关于场景重建中光场问题的丰富信息和研究成果。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值