Bundle Adjustment简述

换地方了,新链接,以后会多在新地方更新一些东西

笔者到底想讲些啥?

在SFM(structure from motion)的计算中BA(Bundle Adjustment)作为最后一步优化具有很重要的作用,在近几年兴起的基于图的SLAM(simultaneous localization and mapping)算法里面使用了图优化替代了原来的滤波器,这里所谓的图优化其实也是指BA。其实很多经典的文献对于BA都有深深浅浅的介绍,如果想对BA的全过程做一个全面的更深层次的了解,推荐阅读 Bundle Adjustment —A Modern Synthesis,但是BA的内容确实太多太杂了,刚对其了解的时候往往会陷入其局部的计算中不能自拔,因此笔者准备对其进行一个比较全局一点的介绍,希望读者可以比较轻松的一览BA的全过程而不是陷入其局部的繁琐的计算中,同时也会尽量对其需要的数学工具介绍全面,如有错误和遗漏还望指正。

如果读者对以下内容有基本了解那可就太棒棒了!

  • 射影相机几何模型
  • 对极几何
  • 凸优化
  • 矩阵理论

这才是真的开始

Bundle Adjustment(之后在不引起歧义的情况下用BA代替,你问为什么?笔者懒啊-。-),大概似乎也许好像有近百年的历史了吧(没错,可以称为state-of-art的视觉SLAM在几年前才用上将近上百岁的算法),中文译为光束法平差,大概大家看到更多的翻译可能为束调整捆集调整或者捆绑调整等等。这么多翻译笔者最喜欢的还是光束法平差,一看就比其它的更专业逼格更高嘛,其它的翻译都太直译了。当然最重要的是光束法平差完美的表达了BA的来源、原理和计算过程,而其他的只是强调了将很多数据放在一起进行优化计算这个事。不信?那我们来分析一下嘛。

所谓bundle,来源于bundle of light,其本意就是指的光束,这些光束指的是三维空间中的点投影到像平面上的光束,而重投影误差(后面会讲这到底是个什么鬼)正是利用这些光束来构建的,因此称为光束法强调光束也正是描述其优化模型是如何建立的。剩下的就是平差,那什么是平差呢?借用一下百度词条 测量平差 中的解释吧。

由于测量仪器的精度不完善和人为因素及外界条件的影响,测量误差总是不可避免的。为了提高成果的质量,处理好这些测量中存在的误差问题,观测值的个数往往要多于确定未知量所必须观测的个数,也就是要进行多余观测。有了多余观测,势必在观测结果之间产生矛盾,测量平差的目的就在于消除这些矛盾而求得观测量的最可靠结果并评定测量成果的精度。测量平差采用的原理就是“最小二乘法”。

平差也就正好表述了为什么需要BA以及BA这个优化过程到底是怎么进行的。

BA模型到底是怎么来的?

感觉前面废话说了一大堆,解释了半天BA的中文翻译,那么BA到底是干嘛的呢?经过前面的铺垫,用一句话来描述BA那就是,BA的本质是一个优化模型,其目的是最小化重投影误差

本质是一个优化模型应该很容易理解,那么什么是重投影误差呢?投影自然是个几何的问题,既然是几何问题那这个时候来个图自然就是最棒棒了!
BA
看!这些五颜六色的线就是我们讲的光束啦!那现在就该说下什么叫重投影误差了,重投影也就是指的第二次投影,那到底是怎么投影的呢?我们来整理一下吧:

  • 其实第一次投影指的就是相机在拍照的时候三维空间点投影到图像上
  • 然后我们利用这些图像对一些特征点进行三角定位(triangulation,很多地方翻译为三角化或者三角剖分等等,当然笔者最喜欢的还是三角定位,显然是利用几何信息构建三角形来确定三维空间点的位置嘛,相关内容请参考对极几何)
  • 最后利用我们计算得到的三维点的坐标(注意不是真实的)和我们计算得到的相机矩阵(当然也不是真实的)进行第二次投影,也就是重投影

现在我们知道什么是重投影了,那重投影误差到底是什么样的误差呢?这个误差是指的真实三维空间点在图像平面上的投影(也就是图像上的像素点)和重投影(其实是用我们的计算值得到的虚拟的像素点)的差值,因为种种原因计算得到的值和实际情况不会完全相符,也就是这个差值不可能恰好为0,此时也就需要将这些差值的和最小化获取最优的相机参数及三维空间点的坐标。

进入数学模式!

感觉像写小说一样写了一堆堆的文字,既然BA是个数学问题,不用数学讲讲好像不太行,接下来就看看BA的数学模型是怎么构建的吧。

对BA有点了解的同学可能知道BA是一个图优化模型,那首先肯定要构造一个图模型了(没学过图论也没事,后面还是会回到一般的优化模型)。既然是图模型那自然就有节点和边了,这个图模型的节点由相机 P i P_i Pi和三维空间点构成 X j X_j Xj构成,如果点 X j X_j Xj投影到相机 P i P_i Pi的图像上则将这两个节点连接起来。还是来张图吧。
BAgraph
这样就一目了然了。那么我们现在就可以通过这个图来构造优化模型了。

令点 X j X_j Xj在相机 P i P_i Pi拍摄到的图像归一化坐标系上的坐标为 k ( u i j T , 1 ) T = K i − 1 x i j k(u_{ij}^T,1)^T=K_i^{-1}x_{ij} k(uijT,1)T=Ki1xij,其重投影后的图像归一化坐标系下坐标为 k ′ ( v i j T , 1 ) T = K i − 1 P i X j k'(v_{ij}^T,1)^T=K_i^{-1}P_iX_j k(vijT,1)T=Ki1PiXj,其中 K i − 1 K_i^{-1} Ki1是为了在计算时能不受相机内参影响 k k k k ′ k' k是将齐次坐标转换为非齐次坐标的常数项,可以得到该重投影误差为
e i j = u i j − v i j e_{ij}=u_{ij}-v_{ij} eij=uijvij
BA是要将所有重投影误差的和最小化,那么这里自然就要开始求和了。
min ⁡ R i , t i , X j ∑ i , j σ i j ∥ u i j − v i j ∥ 2 \min_{R_i,t_i,X_j} \sum_{i,j} \sigma_{ij}\|u_{ij}-v_{ij}\|_2 Ri,ti,Xjmini,jσijuijvij2
其中当点 X j X_j Xj在相机 P i P_i Pi中有投影时 σ i j = 1 \sigma_{ij}=1 σij=1,否则为 σ i j = 0 \sigma_{ij}=0 σij=0

到此我们就得到了BA优化模型的数学形式了。

接下来就应该开始计算了!

既然是优化模型,那自然就应该用各种优化算法来进行计算了。这里先小小的剧透一下,BA现在基本都是利用LM(Levenberg-Marquardt)算法并在此基础上利用BA模型的稀疏性质来进行计算的,LM算法是最速下降法(梯度下降法)和Gauss-Newton的结合体,至于是怎么结合的接下来就来慢慢介绍了。

提前给定
f ( x ) = ∑ i , j σ i j ∥ u i j − v i j ∥ 2 2 \mathbf{f(x)} = \sum_{i,j} \sigma_{ij}\|u_{ij}-v_{ij}\| _2^2 f(x)=i,jσijuijvij22
为什么用平方呢??还不是因为不用计算平方根了嘛!

最速下降法

如果你对梯度比较熟悉的话,那你应该知道梯度方向是函数上升最快的方向,而此时我们需要解决的问题是让函数最小化。你应该想到了,那就顺着梯度的负方向去迭代寻找使函数最小的变量值就好了嘛。梯度下降法就是用的这种思想,用数学表达的话大概就是这样
x k = x k − 1 − λ ∇ f ( x k − 1 ) x_k = x_{k-1}-\lambda \nabla \mathbf{f(x_{k-1})} xk=xk1λf(xk1)
其中 λ \lambda λ为步长。

最速下降法保证了每次迭代函数都是下降的,在初始点离最优点很远的时候刚开始下降的速度非常快,但是最速下降法的迭代方向是折线形的导致了收敛非常非常的慢。

Newton型方法

现在先回顾一下中学数学,给定一个开口向上的一元二次函数,如何知道该函数何处最小?这个应该很容易就可以答上来了,对该函数求导,导数为 0 0 0处就是函数最小处。

Newton型方法也就是这种思想,首先将函数利用泰勒展开到二次项:
f ( x + δ x ) ≈ φ ( δ x ) = f ( x ) + ∇ f ( x ) δ x + 1 2 δ x T H ( x ) δ x \mathbf{f(x + \delta x) \approx \varphi(\delta x) = f(x) + \nabla f(x)\delta x + \frac{1}{2}\delta x^T H(x) \delta x} f(x+δx)φ(δx)=f(x)+f(x)δx+21δxTH(x)δx
H \mathbf{H} H为Hessian矩阵,是二次偏导矩阵。

也就是说Newton型方法将函数局部近似成一个二次函数进行迭代,然后令 x \mathbf{x} x δ x \mathbf{\delta x} δx方向上迭代直至收敛,接下来自然就对这个函数求导了:
φ ′ ( δ x ) = ∇ f ( x ) + H δ x = 0 ⟹ δ x = − H − 1 ∇ f ( x ) \mathbf{\varphi'(\delta x) = \nabla f(x) + H \delta x = 0 } \\ \Longrightarrow \mathbf{ \delta x = -H^{-1}\nabla f(x) } φ(δx)=f(x)+Hδx=0δx=H1f(x)
Newton型方法收敛的时候特别快,尤其是对于二次函数而言一步就可以得到结果。但是该方法有个最大的缺点就是Hessian矩阵计算实在是太复杂了,并且Newton型方法的迭代并不像最速下降法一样保证每次迭代都是下降的。

Gauss-Newton方法

既然Newton型方法计算Hessian矩阵太困难了,那有没有什么方法可以不计算Hessian矩阵呢?在范数符号内将 e e e一阶泰勒展开,我们可以得到
f ( x + δ x ) ≈ ∥ e + J ( x ) δ x ∥ 2 2 = δ x T J T J δ x + 2 e T J δ x + e T e \begin{aligned} \mathbf{f(x + \delta x)} & \approx \mathbf{\| e + J(x) \delta x \|} _2^2\\ & = \mathbf{\delta x^T J^T J \delta x + 2e^T J \delta x + e^Te} \end{aligned} f(x+δx)e+J(x)δx22=δxTJTJδx+2eTJδx+eTe
其中 J \mathbf{J} J为Jacobi矩阵,函数 e e e x x x求一次偏导而来,梯度也是对向量函数求一次偏导而来。将标量考虑为 1 × 1 1 \times 1 1×1的矩阵,将向量考虑为 n × 1 n \times 1 n×1的矩阵,其实这些求导都是求Jacobi矩阵。此时不需要计算Hessian矩阵。
同样,二次函数导数为0时取极值,则有
J T J δ x = − J T e \mathbf{J^{T} J \delta x = - J^{T} e} JTJδx=JTe x = x + δ x \mathbf{x = x + \delta x} x=x+δx
由此 x \mathbf{x} x δ x \mathbf{\delta x} δx方向上迭代直至 ∥ e ∥ \| e \| e最小。

同时我们可以发现一个等式,会在下面的LM方法中用到
∇ f ( x ) = 2 J T e \mathbf{\nabla f(x)} = 2\mathbf{J^Te} f(x)=2JTe

Gauss-Newton方法就避免了求Hessian矩阵,并且在收敛的时候依旧很快。但是依旧无法保证每次迭代的时候函数都是下降的(虽然从上式可以推导出来是下降方向,但是步长可能过长)。

LM方法

LM方法就是在以上方法基础上的改进,通过参数的调整使得优化能在最速下降法和Gauss-Newton法之间自由的切换,在保证下降的同时也能保证快速收敛。

Gauss-Newton最后需要求解的方程为
J T J δ x = − J T e \mathbf{J^{T} J \delta x = - J^{T} e} JTJδx=JTe
LM算法在此基础上做了更改,变成了
( J T J + λ I ) δ x = − J T e \mathbf{(J^{T} J + \lambda I) \delta x = - J^{T} e} (JTJ+λI)δx=JTe
通过参数 λ \lambda λ的调节在最速下降法和Gauss-Newton法之间切换。做个不很数学的直观分析吧,当 λ \lambda λ很小时,显然和Gauss-Newton法是一样的;当 λ \lambda λ很大时,就变成了这样:
λ I δ x = − J T e ⟹ δ x = − λ − 1 J T e \mathbf{\lambda I \delta x = - J^T e} \\ \Longrightarrow \mathbf{\delta x = - \lambda^{-1}J^T e} λIδx=JTeδx=λ1JTe
然后再看看前面的最速下降法?

这里还存在一个问题,当 λ \lambda λ取某个值的时候可能会导致 J J + λ I \mathbf{J^J + \lambda I} JJ+λI不可逆,所以这里变成了
( J T J + λ d i a g ( J T J ) ) δ x = − J T e \mathbf{(J^{T} J + \lambda diag(J^T J)) \delta x = - J^{T} e} (JTJ+λdiag(JTJ))δx=JTe
其实LM算法的具体形式就笔者看到的就有很多种,但是本质都是通过参数 λ \lambda λ在最速下降法和Gauss-Newton法之间切换。这里选用的是维基百科上的形式。

LM算法就由此保证了每次迭代都是下降的,并且可以快速收敛。

还没完呢!别忘了还要解方程

LM算法主体就是一个方程的求解,也是其计算量最大的部分。当其近似于最速下降法的时候没有什么好讨论的,但是当其近似于Gauss-Newton法的时候,这个最小二乘解的问题就该好好讨论一下了。以下的讨论就利用Gauss-Newton的形式来求解。

稠密矩阵的最小二乘解

对于形如 A x = b Ax=b Ax=b的超定参数方程而言,有很多求解方式,伪逆、QR分解、SVD等等,这里不展开谈,想具体了解的可以去查阅矩阵理论相关资料。这些方式都有一个共同的特点,我们都是将 A A A看作一般的稠密矩阵,主要得到的解自然非常鲁棒,都是计算量却是和维数的三次方成正比( O ( n 3 ) O(n^3) O(n3))。面对BA这种超大规模的优化似乎有点不太实用。

稀疏矩阵的Cholesky分解

稠密矩阵计算起来那么复杂,如果是稀疏矩阵的话利用其稀疏的性质可以大幅减少计算量,对于稀疏矩阵的Cholesky分解就是这样。其分解形式为一个上三角矩阵的转置乘上自身:
A ≈ R T R R T R x = b x = R − 1 R − T b A \approx R^T R \\ R^TRx = b \\ x = R^{-1}R^{-T}b ARTRRTRx=bx=R1RTb

为什么说我们的矩阵是稀疏的

用一个非常简单的例子来解释吧,考虑有两个相机矩阵 P 1 P_1 P1 P 2 P_2 P2、两个空间点 X 1 X_1 X1 X 2 X_2 X2,其中 X 1 X_1 X1只在 P 2 P_2 P2中有投影, X 2 X_2 X2在两个相机(或视角)中都有投影。令优化函数为 f ( P 1 , P 2 , X 1 , X 2 ) f(P_1,P_2,X_1,X_2) f(P1,P2,X1,X2),此时Jacobi矩阵为
J = [ ∂ f ∂ P 1 ∂ f ∂ X 2 ∂ f ∂ P 2 ∂ f ∂ X 1 ∂ f ∂ P 2 ∂ f ∂ X 2 ] \mathbf{J} = \left[ \begin{array}{cc|cc} \frac{\partial f}{\partial P_1} & & & \frac{\partial f}{\partial X_2} \\\\ & \frac{\partial f}{\partial P_2} & \frac{\partial f}{\partial X_1} & \\\\ & \frac{\partial f}{\partial P_2} & & \frac{\partial f}{\partial X_2} \end{array} \right] J=P1fP2fP2fX1fX2fX2f
考虑相机位置(图像数量)和空间点都非常多的情况,不难想象Jacobi矩阵不光是一个稀疏矩阵而且还可以写成形如 [ A ∣ B ] [A|B] [AB]的分块矩阵。接下来就该利用这些性质正式进入计算了!

开始计算吧!

现在再回到Gauss-Newton最后的超定参数方程吧。既然Jacobi矩阵可以分块那我们就先分块,分块可以有效降低需要计算的矩阵的维度并以此减少计算量。
J T J δ x = − J T e J = [ A ∣ B ] [ A ∣ B ] T [ A ∣ B ] δ x = − [ A ∣ B ] T e \mathbf{J^{T} J \delta x = - J^{T} e} \\ \mathbf{J}=[A|B] \\ [A|B]^T[A|B]\mathbf{\delta x}=-[A|B]^T e JTJδx=JTeJ=[AB][AB]T[AB]δx=[AB]Te [ A T A A T B B T A B T B ] [ δ x A δ x B ] = − [ A T e B T e ] \begin{bmatrix} A^TA & A^TB \\ B^TA & B^TB \end{bmatrix} \begin{bmatrix} \mathbf{\delta x}_A \\ \mathbf{\delta x}_B \end{bmatrix} = - \begin{bmatrix} A^T e \\ B^T e \end{bmatrix} [ATABTAATBBTB][δxAδxB]=[ATeBTe] [ U W W T V ] [ δ x A δ x B ] = [ e A e B ] \begin{bmatrix} U & W \\ W^T & V \end{bmatrix} \begin{bmatrix} \mathbf{\delta x}_A \\ \mathbf{\delta x}_B \end{bmatrix} = \begin{bmatrix} e _A \\ e _B \end{bmatrix} [UWTWV][δxAδxB]=[eAeB] [ I − W V − 1 0 I ] [ U W W T V ] [ δ x A δ x B ] = [ I − W V − 1 0 I ] [ e A e B ] \begin{bmatrix} I & -WV^{-1} \\ 0 & I \end{bmatrix} \begin{bmatrix} U & W \\ W^T & V \end{bmatrix} \begin{bmatrix} \mathbf{\delta x}_A \\ \mathbf{\delta x}_B \end{bmatrix} = \begin{bmatrix} I & -WV^{-1} \\ 0 & I \end{bmatrix} \begin{bmatrix} e _A \\ e _B \end{bmatrix} [I0WV1I][UWTWV][δxAδxB]=[I0WV1I][eAeB] [ U − W V − 1 W T 0 W T V ] [ δ x A δ x B ] = [ e A − W V − 1 e B e B ] \begin{bmatrix} U-WV^{-1}W^T & 0 \\ W^T & V \end{bmatrix} \begin{bmatrix} \mathbf{\delta x}_A \\ \mathbf{\delta x}_B \end{bmatrix} = \begin{bmatrix} e _ A - WV^{-1}e _B \\ e _B \end{bmatrix} [UWV1WTWT0V][δxAδxB]=[eAWV1eBeB] { ( U − W V − 1 W T ) δ A = e A − W V − 1 e B W T δ A + V δ B = e B \begin{cases} (U-WV^{-1}W^T) \delta _A = e _ A - WV^{-1}e _B \\ W^T \delta _A + V \delta _B = e _B \end{cases} {(UWV1WT)δA=eAWV1eBWTδA+VδB=eB
由此我们可以先求出 δ A \delta _A δA,然后代回求出 δ B \delta _B δB。其中 U − W V − 1 W T U-WV^{-1}W^T UWV1WT被称为舒尔补(Schur complement)。分块降维之后的计算就可以利用稀疏的Cholesky分解进行计算了。

注意事项!

以上就基本将BA的整个过程进行了介绍,当然这只是最基础的思路,接下来一些遗漏点进行补充。

李群及李代数

不知道有没有人注意到,在优化迭代的过程中,我们求的值为 δ x \delta x δx,然后利用 x + δ x x + \delta x x+δx来更新 x x x的值。这里就应该出现一个问题了,对于空间点的坐标和平移向量这么处理自然没有什么问题,但是对于旋转矩阵呢?难道用 R + δ R R + \delta R R+δR来更新 R R R的值吗?好像不太对吧。

对于旋转矩阵 R R R而言是不存在加法的,按理讲应该用 R δ R R \delta R RδR来更新 R R R的值,但是优化算法的迭代过程又不能是乘法,这就出现了矛盾。

这里旋转矩阵及相关运算属于李群,此时将旋转矩阵变换到其对应的李代数上进行计算,然后再变回李群。打个不是那么恰当的比方,在计算卷积的时候常常通过傅里叶变换计算乘积然后再反变换回来就是要求的卷积了,这个也是转换到李代数上计算然后再变回李群。具体的推导可以参看李群及李代数相关内容。

协方差矩阵

在我们的推导中是求解方程
J T J δ x = − J T e \mathbf{J^{T} J \delta x = - J^{T} e} JTJδx=JTe
但常常加入信息矩阵(协方差矩阵的逆),令求解方程变为
J T Σ x − 1 J δ x = − J T Σ x − 1 e \mathbf{J^{T} \Sigma_x^{-1} J \delta x = - J^{T} \Sigma _x^{-1} e} JTΣx1Jδx=JTΣx1e
其中 Σ x \mathbf{\Sigma _x} Σx为协方差矩阵,令其为分块对角阵表示所有观测向量都不相关。

参考文献

  • Triggs B, McLauchlan P F, Hartley R I, et al. Bundle adjustment—a modern synthesis[C]//International workshop on vision algorithms. Springer Berlin Heidelberg, 1999: 298-372.
  • Hartley R, Zisserman A. Multiple view geometry in computer vision[M]. Cambridge university press, 2003.
  • Barfoot T D. STATE ESTIMATION FOR ROBOTICS[J]. 2017.
### 回答1: ORB-SLAM2 的运行程序是一段预先编写好的计算机代码,用于实现 ORB-SLAM2 论文中提到的 Simultaneous Localization and Mapping (SLAM) 算法。它可以通过处理视觉数据(例如,从摄像机或激光雷达设备获取的数据),实时地构建和更新场景的三维地图,并同时确定机器人在环境中的位置。 ORB-SLAM2 的代码是开源的,可以在 GitHub 上免费下载,并可以在许多不同类型的计算机系统上运行。如果您想使用 ORB-SLAM2,您可以下载代码并在自己的计算机上运行它。 ### 回答2: ORB-SLAM2是一个用于单目相机、双目相机和RGB-D相机的实时SLAM系统。下面是ORB-SLAM2的运行程序: 1. 首先,安装所需的依赖项,包括OpenCV、Pangolin、DBoW2和g2o。这些依赖项可通过Github页面上的说明进行安装。 2. 然后,从Github页面上下载ORB-SLAM2的源代码。 3. 解压缩下载的源代码,并使用CMake进行编译。指定正确的路径以链接到依赖项。编译完成后,将生成ORB-SLAM2的可执行文件。 4. 准备运行ORB-SLAM2的数据集或实时摄像头输入。如果使用数据集,将其放置在指定的路径下。 5. 打开终端,并导航到ORB-SLAM2的可执行文件所在的目录。 6. 运行ORB-SLAM2,可以使用以下命令: ./ORB_SLAM2 [参数] 参数包括: -voc [词汇文件路径]: 使用指定的词汇文件 -settings [配置文件路径]: 使用指定的配置文件 -test [数据集路径]: 使用指定的数据集 ... 使用各种参数可以根据实际情况进行设置,例如选择使用单目相机还是双目相机,是否保存地图等。 7. 在运行程序后,ORB-SLAM2将初始化相机,跟踪相机姿态,并在实时中构建地图。可以在控制台上看到相机的轨迹和地图的构建。 需要注意的是,ORB-SLAM2的运行程序可能因使用的相机类型、参数配置和数据集而有所不同。因此,在实际应用中,可能需要根据具体情况进行适当的调整和设置。此外,ORB-SLAM2还提供了一些API和示例代码,可用于开发更多的自定义功能。 ### 回答3: ORB-SLAM2是一种基于特征点的稀疏SLAM算法,可以同时实现定位和建图。下面是ORB-SLAM2的运行程序流程简述。 首先,程序会加载相机的参数和配置文件,并初始化ORB特征点提取器、描述符以及地图等数据结构。接着,程序开始处理每一帧输入图像序列。 对于每一帧输入图像,首先会进行特征点提取和描述子计算。ORB-SLAM2使用Oriented FAST特征点检测器提取特征点,并计算ORB描述子。在提取到足够数量的特征点之后,会通过判断几何约束进行匹配。 接下来,程序会进行初始化或跟踪过程。初始化是指在场景中没有建立地图时,通过匹配帧间的ORB特征点,计算出相机的姿态信息,并根据三角测量法计算出特征点的三维坐标。 在跟踪过程中,程序会通过参考帧的姿态信息和特征点的深度信息进行位姿估计。同时,ORB-SLAM2还使用BABundle Adjustment)优化算法对地图和相机的位姿进行优化,以提高位姿估计的准确性。 最后,程序会更新地图,并将当前帧作为参考帧保存。在运行过程中,ORB-SLAM2还会根据设定的策略进行回环检测,通过匹配历史帧和当前帧的特征点,判断是否存在回环,并进行地图的闭合和优化。 总结来说,ORB-SLAM2的运行程序包括相机参数加载、初始化、特征点提取和描述子计算、匹配、位姿估计和优化、地图更新和回环检测等步骤。通过这些步骤,ORB-SLAM2能够实现实时的稀疏SLAM定位和建图。
评论 56
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值