BundleFusion: Real-time GloballyConsistent 3D Reconstruction... 论文解析

1 概述

在BundleFusion之前的很多相似的方案中,在重建的过程中总是出现以下问题:

  1. 需要额外的时间来纠正在线的错误,从而无法很好的实现实时处理
  2. 十分脆弱的tracking方案,从而导致位姿估计出现错误
  3. 扫描的结果试用点的形式在表示,限制了扫描的质量和适用性

BundleFunsion 从以下几个方面把上面的问题进行了解决:

  1. 通过分级的方式,使得历史的所有帧,都参与了优化
  2. 不再是短暂的tracking,而是全局的tracking
  3. 设计了一个并行系统来进行优化。同时分别使用了稀疏的特征和稠密的光度特征和几何结构特征来实现匹配
  4. 该方法实现了位姿全局实时的优化,同时tracking失败后也可以重新定位
  5. 可以对已生成的3D模型进行新的估计

作者认为在三维重建中比较重要的一些要素:

  1. 高质量的表面建模
  2. 可伸缩性:因为需要同时处理小的和大的场景的扫描,同时保证全局结构和局部结构的精度
  3. 全局建模的一致性:可以通过回环检测实现
  4. 已经建好的模型可以根据实时的输入进行动态的更新
  5. 实时的建模速率

2 实现方法

在这里插入图片描述
首先概括的说一下本文的方法。

  1. RGB-D相机作为输入
  2. 为了实现全局的一致性,使用了由稀疏到稠密的全局位姿优化方案:首先试用检测到的稀疏的图像特征(SIFT)来进行粗糙的位姿优化,同时该稀疏的特征也可以用来进行回环检测和重定位。之后再用稠密的光度信息和几何信息来进一步优化
  3. 通过设计滤波器来阻止误匹配的发生,也可以有效地防止错误的加入回环帧进行优化
  4. 为了实现实时的全局位姿优化,设计了由局部到全局的优化方案:每n个连续帧,进行打包称为一个chunk,来进行局部的位姿优化;之后通过chunk之间的联系来进行全局的位姿优化
  5. 利用并行的GPU来解决这个非线性优化的问题
  6. 可以通过新的实时的de-integration 和 integration 对TSDF地图进行实时更新

3 Global pose aligenment

实时的RGB-D数据用 S \textbf{S} S来表示, S = { f i = { C i , D i } } \textbf{S}=\{f_i=\{C_i,D_i\}\} S={fi={Ci,Di}} C i C_i Ci代表 f i f_i fi帧的颜色数据, D i D_i Di代表 f i f_i fi帧的深度数据。采集数据的频率是30Hz,分辨率为 640 × 480 640\times480 640×480 T i ( p ) = R i p + t i T_i(\textbf{p})=\textbf{R}_i \textbf{p}+\textbf{t}_i Ti(p)=Rip+ti是把在 f i f_i fi坐标系的点 p \textbf{p} p转到世界坐标系中。

3.1 Feature correspondence search

首先使用特征查找,特征匹配和correspondences滤波器,来查找稀疏的correspondences。本文使用的是SIFT,而且correspondences search全部是在GPU上进行处理,可以在0.05ms中查找一对图像的特征点。

3.1.2 Correspondence Filtering

Key Point Correspondence Filter
f i f_i fi f j f_j fj两帧之间在三维空间中有相互对应的correspondences points 集合 P P P Q Q Q。在此之前,经过位姿的优化求解(后面会介绍),已经获得了 T i T_i Ti T j T_j Tj ,结合 Kabsch algorithm 来计算 T i j T_{ij} Tij(点从 f i f_i fi f j f_j fj 的变换矩阵)。然后再求一下 P c u r P_{cur} Pcur Q c u r Q_{cur} Qcur 的 corss-covariance;如果值比较大(>100)那么证明该系统不稳定,需要进一步操作。如果一对特征点的重投影误差或者经过条件分析认为它不稳定,那么移除该对应的点。直到符合要求或者correspondences的个数不足以求 f i f_i fi f j f_j fj 的变换才停止。如果最后还没有产生符合要求的 T i j T_{ij} Tij,我们就把整个 f i f_i fi f j f_j fj 全部抛弃。

Surface area filter
f i f_i fi 的 3D keypoints P P P f j f_j fj 的 3D keypoints Q Q Q 投影到相机平面上,再用 2D oriented bounding box 的方法来圈住这些点,求 bounding box 的面积,如果面积太小( < 0.032 m 2 <0.032m^2 <0.032m2)则认为不够稳定,抛弃这些匹配。

Dense verification

为了效率考虑,在验证的时候,我们使用经过滤波且降采样的图片进行验证
∣ ∣ T i j ( p i , x , y ) − q j , x , y ∣ ∣ 2 < τ d ( 1 ) \left| \left| T_{ij}(\textbf{p}_{i,x,y})-\textbf{q}_{j,x,y}\right| \right|_2<\tau_d \qquad (1) Tij(pi,x,y)qj,x,y2<τd(1)
( T i j ( n i , x , y ) ) ⋅ n j , x , y > τ n ( 2 ) (T_{ij}(\textbf{n}_{i,x,y} ))\cdot \textbf{n}_{j,x,y}>\tau_n \qquad (2) (Tij(ni,x,y))nj,x,y>τn(2)
∣ ∣ C i l o w ( x , y ) − C j l o w ( x , y ) ∣ ∣ 1 < τ c ( 3 ) \left| \left| C_i^{low}(x,y) - C_j^{low}(x,y) \right| \right|_1<\tau_c \qquad (3) Cilow(x,y)Cjlow(x,y)1<τc(3)

C i l o w C_i^{low} Cilow是经过降采样的color intensity, D i l o w D_i^{low} Dilow是深度信息。 P i l o w P_i^{low} Pilow N i l o w N_i^{low} Nilow D i l o w D_i^{low} Dilow对应的位置信息和法向量。 p i . x . y = P i l o w ( x , y ) \textbf{p}_{i.x.y}=P_i^{low}(x,y) pi.x.y=Pilow(x,y)并且 q i , x , y = P j l o w ( π − 1 ( T i j p i , x , y ) ) q_{i,x,y}=P_j^{low}(\pi^{-1}(T_{ij}\textbf{p}_{i,x,y})) qi,x,y=Pjlow(π1(Tijpi,x,y))。但是式(1)对于遮挡产生的错误十分敏感,所以我们抛弃有较大深度差异、法向量偏差或者缺少光度一致性的correspondences,从而得到了式(2)和(3)。如果这些检验都通过了的话,那么把correspondences加入有效集合。帧与帧之间至少需要3对correspondences,实验证明5个的话,效果更好。

3.2 Hierarchical optimization

在第一阶段,我们在一个chunk内优化位姿变换,第二阶段,优化chunk之间的位姿变换。

Local Intra-Chunk Pose Optimization

  1. N c h u n k = 11 N_{chunk}=11 Nchunk=11连续帧作为一个chunk。因为每个chunk帧数很少且连续,所以变化不大,因此可以用单位矩阵来初始化transformation。
  2. 为了保证局部位姿优化的准确度,我们在得到chunk内部初步优化过的trajectory后,使用Dense verification检测。
  3. 如果重投影误差很大,那么整个chunk将会被抛弃。

Per-Chunk Keyframes
经过前面的处理之后,把每个chunk的第一个元素作为该chunk的keyframe。也计算一个chunk里面聚合的keyframe feature集合,即把chunk里面所有的特征点的坐标系变换到keyframe的坐标系,那些在三维空间中一致的点用最小二乘法优化到一个最佳的位置。因此一个chunk最终可以获得一帧即keyframe,里面包含统一的特征位置以及深度信息。

Global Inter-Chunk Pose Optimization

  1. 稀疏的correspondence search 和 filtering和chunk内的操作一样。只不过这次在keyframe上操作
  2. 如果在全局的keyframe上没有找到和以前相匹配的keyframes,那么该帧暂定为无效帧,放入候选名单,如果未来找到匹配的keyframes再使用
  3. 全局的位姿优化计算keyframes位姿在全局范围内的一致性,可以把chunks在世界坐标系下进行校准。

3.3 Pose alignment as energy optimization
前面多次提到了位姿的优化和校准,那么本节将会介绍具体的方法。如果有一系列帧 S S S,那么所有帧的参数向量是
χ = ( R 0 , t 0 , … , R ∣ S ∣ , t ∣ S ∣ ) T = ( x 0 , … , x N ) T \chi =(\textbf{R}_0,\textbf{t}_0, \dots,\textbf{R}_{|S|},\textbf{t}_{|S|})^T=(x_0,\dots,x_N)^T χ=(R0,t0,,RS,tS)T=(x0,,xN)T

其中 R i ∈ s o 3 ∈ R 3 \textbf{R}_i \in so_3\in \mathbb{R}^3 Riso3R3
基于sparse features 和 dense photometric and geometric constraints的方程为:
E a l i g n ( χ ) = ω s p a r s e E s p a r s e ( χ ) + ω d e n s e E d e n s e ( χ ) E_{align}(\chi)=\omega_{sparse}E_{sparse}(\chi)+\omega_{dense}E_{dense}(\chi) Ealign(χ)=ωsparseEsparse(χ)+ωdenseEdense(χ)
ω s p a r s e \omega_{sparse} ωsparse ω d e n s e \omega_{dense} ωdense是sparse和dense matching terms的权重。

Sparse matching
E s p a r s e ( χ ) = ∑ i = 1 ∣ S ∣ ∑ j = 1 ∣ S ∣ ∑ ( k , l ) ∈ C ( i , j ) ∣ ∣ T i p i , k − T j p j , l ∣ ∣ 2 2 E_{sparse}(\chi)=\sum_{i=1}^{|S|}\sum_{j=1}^{|S|}\sum_{(k,l)\in\textbf{C}(i,j)}\left|\left|T_i\textbf{p}_{i,k}-T_j\textbf{p}_{j,l}\right|\right|_{2}^2 Esparse(χ)=i=1Sj=1S(k,l)C(i,j)Tipi,kTjpj,l22
p i , k \textbf{p}_{i,k} pi,k是第i帧第k个检测到的特征点, C i , j \textbf{C}_{i,j} Ci,j是第i帧和第j帧之间的匹配对。

Dense matching
E d e n s e ( T ) = ω p h o t o E p h o t o ( T ) + ω g e o E g e o ( T ) E_{dense}(T)=\omega_{photo}E_{photo}(T)+\omega_{geo}E_{geo}(T) Edense(T)=ωphotoEphoto(T)+ωgeoEgeo(T)
E p h o t o ( χ ) = ∑ ( i , j ) ∈ E ∑ k = 0 ∣ I i ∣ ∣ ∣ I i ( π ( d i , k ) ) − I j ( π ( T j − 1 T i d i , k ) ) ∣ ∣ 2 2 E_{photo}(\chi)=\sum_{(i,j)\in\textbf{E}}\sum_{k=0}^{|I_i|}\left|\left| I_i(\pi(\textbf{d}_{i,k}))- I_j(\pi(T_j^{-1}T_i\textbf{d}_{i,k}))\right|\right|_2^2 Ephoto(χ)=(i,j)Ek=0IiIi(π(di,k))Ij(π(Tj1Tidi,k))22
E g e o ( χ ) = ∑ ( i , j ) ∈ E ∑ k = 0 ∣ D i ∣ [ n i , k T ( d i , k − T i − 1 T j π − 1 ( D j ( π ( T j − 1 T i d i , k ) ) ) ) ] 2 E_{geo}(\chi)=\sum_{(i,j)\in\textbf{E}}\sum_{k=0}^{|D_i|}\left[ \textbf{n}_{i,k}^T(\textbf{d}_{i,k}-T_i^{-1}T_j\pi^{-1}(D_j(\pi(T_j^{-1}T_i\textbf{d}_{i,k})))) \right]^2 Egeo(χ)=(i,j)Ek=0Di[ni,kT(di,kTi1Tjπ1(Dj(π(Tj1Tidi,k))))]2
这里 C i C_i Ci是颜色信息, D i D_i Di是深度信息,集合 E \textbf{E} E包含的是相机角度相似,有交集的“帧对(frame pair)” ( i , j ) (i,j) (i,j) ω p h o t o \omega_{photo} ωphoto ω g e o \omega_{geo} ωgeo是对应的权重。 I i I_i Ii C i C_i Ci的亮度梯度,可以使得优化更鲁棒。

3.4 Fast and robust optimization strategy

该部分主要工作室完成以下方程的解:
χ ∗ = a r g min ⁡ χ E a l i g n ( χ ) \chi^*=arg\min_\chi E_{align}(\chi) χ=argχminEalign(χ)
本文采用了高斯牛顿法求解,过程不再赘述。

4 Dynamic 3D reconstruction

本文使用的是TSDF来建图,与以往不同的是,除了integration还考虑了de-integration
D ′ ( v ) = D ( v ) W ( v ) + w i ( v ) d i ( v ) W ( v ) + w i ( v ) , W ′ ( v ) = W ( v ) + w i ( v ) D'(v)=\frac{D(v)W(v)+w_i(v)d_i(v)}{W(v)+w_i(v)},\qquad W'(v)=W(v)+w_i(v) D(v)=W(v)+wi(v)D(v)W(v)+wi(v)di(v),W(v)=W(v)+wi(v)
D ′ ( v ) = D ( v ) W ( v ) − w i ( v ) d i ( v ) W ( v ) − w i ( v ) , W ′ ( v ) = W ( v ) − w i ( v ) D'(v)=\frac{D(v)W(v)-w_i(v)d_i(v)}{W(v)-w_i(v)},\qquad W'(v)=W(v)-w_i(v) D(v)=W(v)wi(v)D(v)W(v)wi(v)di(v),W(v)=W(v)wi(v)

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
实时全局一致的3D重建,使用动态表面重新整合技术实时,高品质,大尺寸场景的3D扫描是混合现实和机器人应用的关键。然而,可扩展性带来了姿态估计漂移的挑战,在累积模型中引入了显着的错误。方法通常需要几个小时的离线处理来全局纠正模型错误。最近的在线方法证明了令人信服的结果,但遭受以下缺点:(1)需要几分钟的时间才能执行在线修正,影响了真正的实时使用; (2)脆弱的帧到帧(或帧到模型)姿态估计导致许多跟踪失败;或(3)仅支持非结构化的基于点的表示,这限制了扫描质量和适用性。我们通过一个新颖的,实时的端对端重建框架来系统地解决这些问题。其核心是强大的姿态估计策略,通过考虑具有高效分层方法的RGB-D输入的完整历史,针对全局摄像机姿态优化每帧。我们消除了对时间跟踪的严重依赖,并且不断地将其定位到全局优化的帧。我们提出了一个可并行化的优化框架,它采用基于稀疏特征和密集几何和光度匹配的对应关系。我们的方法估计全局最优化(即,束调整的姿势)实时,支持从总跟踪故障(即重新定位)恢复的鲁棒跟踪,并实时重新估计3D模型以确保全局一致性;都在一个框架内。我们优于最先进的在线系统,质量与离线方法相同,但速度和扫描速度前所未有。我们的框架导致尽可能简单的扫描,使用方便和高质量的结果。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值