视觉SLAM十四讲(第2版)总结

最近看完了《视觉SLAM十四讲(第2版):从理论到实践》(高翔等著),原书分两部分,先介绍了数学基础,然后介绍了具体的SLAM实践,非常适合零基础开始学习SLAM。

作为总结,这里并不对书中的内容做太多的重复说明,本人的水平也不足以用聊聊数字概括原书精华,因而这里采用这样一种思路:提出问题,分析求解,实践应用——来说说自己的理解。

本文从研究背景出发,引出SLAM问题的数学模型;运用数学工具分析求解模型(主要是直接求导与扰动模型);最后,对原书第13讲的代码组织进行整理,修改并注释第6讲的g2o代码以便理解和回顾。

一、问题的提法

SLAM,即同步定位与建图,顾名思义,我们需要同时估计自身的位置(定位)和环境中物体(路标)的位置(建图)。例如,在自动驾驶汽车中,传感器(摄像头,毫米波雷达,激光雷达等)测量汽车前方的道路情况和障碍物情况,构建地图(考虑到路上的行人,车辆等时刻在变化,至少得是局部地图)以及汽车在该地图中的方位,用于规划汽车的局部行驶路径以躲避障碍物,这就可以运用到SLAM技术。另外,不考虑建图时,SLAM中的视觉里程计也可以帮助我们估计汽车的运动情况。

在SLAM中,我们用“位姿”来表示“位置”,因为“位姿”不仅包括物体的空间位置还包括其朝向,通常用矩阵来表示;用空间点的集合来表示地图(点云地图,在此基础上可构建其他符合需求的地图)。典型的SLAM问题可写成如下形式的优化问题:

                          

其中, 表示位姿; 表示空间点坐标; 表示在位姿  下对  的观测结果,在视觉SLAM中,通常是图像像素点位置;函数  表示观测方程;函数  表示核函数,用于避免由于错误匹配等导致的二范数增长过快,提高系统的鲁棒性。

针对上述优化问题,我们主要需要解决以下两个问题:

1、如何构建该模型?主要涉及  和  的匹配问题,即那个空间点被那个姿态的相机“看到”?

2、如何求解该模型?考虑到  通常是有约束矩阵,如何求梯度?

二、分析求解

1、问题1:如何构建模型

在原书第13讲,作者给出的做法是:

1) 初始化。检测第一帧图像的特征点并计算对应的空间点(称之为“路标”)。此时,检测到的“路标”便被第一帧对应的位姿  看到。

2) 匹配相邻两帧图像的特征点,并统计数量。如果匹配的数量足够多,则不增加新的特征点(也就不增加新的路标),因此  观测到的路标包含于  观测到的路标集合之中,具体哪个路标被  看到由匹配情况确定。

3) 如果匹配的数量太少,则重新计算特征点,增加相应的路标,即  观测到了新增加的所有路标。

2、问题2:如何优化

首先指出,对于一般优化问题,待优化变量为向量,此时我们可以通过矩阵求导法则得到雅可比矩阵(相当于导数),然后运用梯度下降法或者高斯牛顿法等优化方法,求得最优解。在优化过程,关键是找到待优化变量每次迭代时的增量。(原书第6讲)

针对问题2,我们有两种选择:1)用某种向量表示位姿,这样在优化过程中便不存在对矩阵求导的问题;2)利用某种方式求位姿(变换矩阵)的增量。

第一种方法中,我们可以采用 [旋转向量;平移向量] 或者 [单位四元数;平移向量] 的形式表示位姿。此时,观测方程  的形式比较复杂,也不容易写出其对待优化变量的导数(雅可比矩阵)。但是,幸运的是,求导可借助 Ceres, g2o 等优化库提供的自动求导工具,我们只需要计算  即可。原书作者在第9讲《后端1》中即采用了这种做法。

第二种方法中,我们引入李群李代数,先将矩阵(李群)映射到向量(李代数),消除旋转矩阵的自身的约束,进而实现求导,然后再更新位姿。

通常,我们有:

                                                    

则:

                              

(上述公式涉及齐次坐标和非齐次坐标的转换;采用非正式记号,因为并不是直接对矩阵求导)

                                              ,  是向量,此项符合求导规则

因此,问题的关键在与求:

                                                                   

引入李代数  ,我们有:

                                                              

则:

                                                     

这里,我们指出:

                                            

1)直接求导

我们将  在  处做一阶泰勒展开 :

                                         

其中  为  在  处的导数。根据原书6.2.2节,在一次迭代中求解:

                                                 

即可求得本次迭代的最优增量   。

的计算如下:

                                            

根据原书第四讲《李群与李代数》,可得:

可见,这里计算  的形式十分复杂。同时,我们强调,用这里的  求得的增量  可直接叠加用于计算李代数上的更新值 ,但:

                                                               

我们可以直接得到李群上的更新值:

                                                      

我们可以考虑始终用李代数表示位姿,这实际上就相当于第一种方法(但不等同,因为    才表示平移向量)。

2)扰动模型

我们令:

                                             

在已知本次迭代的初始值  时,上式可看作 的函数。因  是小量,我们将其在 0 处一阶泰勒展开:

                             

其中  为  在  处的导数。的计算如下(参考第4讲):

                                   

                                                

                                                

用这里的 求得的增量  不可直接叠加用于计算李代数上的更新值,即 ,但我们有李群上的增量:

                                                             

从而李群上的更新值:

                                                          

跟直接求导相比,扰动模型更简单,同时也方便使用矩阵来表示位姿。

根据上述过程,扰动模型相当于在李群上施加了一个扰动  并在李代数上求扰动结果关于  的在  处的导数。

三、设计框架

至此,我们知道如何建模:

                                 

以及可以求解该模型了。

具体实现上,参考作者在第13讲给出的设计框架和代码,整理SLAM模块组成如下图所示。实际工程肯定比这个复杂和细致的多,这里仅作理解用。整个模块可按照接口,功能,组件,支持分为四层,将每一层包含的元素分别定义成类,编写成头文件并加以引用;上层元素类的成员通常包括下层元素类,每个元素类的方法根据算法确定。最后,作者定义了一个Config类用于链接数据。  

该讲的实现效果如下所示:

                    

考虑到实际工程中,有不同的前端、后端及回环检测和校正策略,这里仅对图优化库 g2o 的代码进行注释,以便更好地掌握该通用工具。该代码取自第6讲,但是做了修改,采用二元边而不是一元边(应用时没有必要这么做)以便注释。代码如下:

#include <iostream>
#include <g2o/core/base_vertex.h>
#include <g2o/core/base_binary_edge.h>
#include <g2o/core/block_solver.h>
#include <g2o/core/optimization_algorithm_levenberg.h>
#include <g2o/solvers/dense/linear_solver_dense.h>
#include <Eigen/Core>
#include <opencv2/core/core.hpp>
#include <cmath>
#include <chrono>

using namespace std;

//****** 利用 g2o 拟合曲线方程:y = exp(ax^2+bx+c) + w, w为高斯噪声 **************

/* g2o 使用步骤:
 * 1. 自定义顶点和边:通过继承的方式;或使用库中预定义的类型
 * 2. 配置求解器
 * 3. 添加顶点和边
 * 4. 求解
*/

// 1. 通过继承 g2o::BaseVertex 和 g2o::BaseBinaryEdge 自定义边

/// 设计两个顶点类,其中 [a;b] 为一个二维向量顶点类,c 为另一个double顶点类                                        
class CurveFittingVertex1: public g2o::BaseVertex<2, Eigen::Vector2d> /// 二维向量顶点类
                                            /// < 顶点维度,数据类型 > 
{ 
public :
  EIGEN_MAKE_ALIGNED_OPERATOR_NEW //结构体包含eigen成员必须进行宏定义 EIGEN_MAKE_ALIGNED_OPERATOR_NEW, 保证内存对齐
  
  virtual void setToOriginImpl() { _estimate << 0, 0; } ///重置

  virtual void oplusImpl(const double *update) { _estimate += Eigen::Vector2d(update); } /// 顶点更新函数,利用增量更新顶点
  
  virtual bool read(istream &in) {} /// 无读写操作,留空
  virtual bool write(ostream &out) const {}
};

class CurveFittingVertex2 : public g2o::BaseVertex<1,double> /// double顶点类
{
public:
  virtual void setToOriginImpl() { _estimate = 0.0; }
  virtual void oplusImpl(const double *update) { _estimate += update[0]; }
  virtual bool read(istream &in) {} /// 无读写操作,留空
  virtual bool write(ostream &out) const {}
};

/// 二元边,连接二维向量顶点和double顶点
class CurveFittingEdge: public g2o::BaseBinaryEdge<1, double, CurveFittingVertex1,CurveFittingVertex2>
                                             /// < 观测值维度,观测值类型,连接的顶点类1,连接的顶点类2 > 
{
public :
  EIGEN_MAKE_ALIGNED_OPERATOR_NEW;
  CurveFittingEdge(double x) : BaseBinaryEdge(), _x(x) {} ///CurveFittingEdge类的构造函数
  
  void computeError() ///计算边所代表的误差
  {
   const CurveFittingVertex1 *v1 = static_cast<const CurveFittingVertex1 *>( _vertices[0] ); 
   /// static_cast 类型转换,把父类的_vertice 转换为子类的CurveFittingVertex
   const CurveFittingVertex2 *v2 = static_cast<const CurveFittingVertex2 *>( _vertices[1] );
   /// _vertices[] 为边的成员,存储顶点信息;对二元边,_vertices[] 的大小为2
   
   const Eigen::Vector2d ab = v1->estimate(); /// 获取v1顶点的当前值
   const double c = v2->estimate(); /// 获取v2顶点的当前值
   
  // _error(0,0) = _measurement - std::exp( ab(0,0)*_x*_x + ab(1,0)*_x + c ); /// 也可以采用下述方式赋值
   _error << _measurement - exp(ab[0]*_x*_x + ab[1]*_x + c); /// _error 的类型为 Eigen::Matrix<double, D, 1, Eigen::ColMajor>
                                                               /// _measurement 的类型为声明明边类型时的观测值类型,这里是 double
  }
  
  virtual void linearizeOplus() override ///计算雅可比矩阵J,用于计算海塞矩阵 H=J^T*J 和 误差 b=-J^T*_error
  {
    const CurveFittingVertex1 *v1 = static_cast<const CurveFittingVertex1 *>(_vertices[0]);
    const CurveFittingVertex2 *v2 = static_cast<const CurveFittingVertex2 *>(_vertices[1]);
    
    const Eigen::Vector2d ab = v1->estimate();
    const double c = v2->estimate();
    
    double y = exp(ab[0]*_x*_x + ab[1]*_x + c);
    _jacobianOplusXi[0] = -_x*_x*y; /// _error 对 ab 的导数,为 1x2 的矩阵
    _jacobianOplusXi[1] = - _x*y;
    _jacobianOplusXj[0] = -y; /// _error 对 c 的导数,为 1x1 的矩阵
    
    //** J = [_jacobianOplusXi, _jacobianOplusXj]    
  }
  
  virtual bool read(istream &in) {}
  virtual bool write(ostream &out) const {}
  
public :
  double _x; // x值,y值为 _ measurement
};

int main(int argc, char **argv)
{
  // 生成数据
  double a = 1.0, b = 2.0, c = 1.0; /// 真实参数值
  int N = 100;                      /// 数据点个数
  double w_sigma = 1.0;             /// 噪声Sigma值
  cv::RNG rng;                      /// OpenCV随机数产生器
 
  vector<double> x_data, y_data;    /// 数据序列
 
  cout << "generating data: " << endl;
  for (int i=0; i<N; i++)
  {
    double x = i/100.0; // i 是int型,要除以100.0 保证结果为double
    x_data.push_back(x);
    y_data.push_back( exp(a*x*x + b*x +c) + rng.gaussian(w_sigma) );
    cout << x_data[i] << "\t" << y_data[i] << endl;
  }
  
  // 2. 配置求解器
  /// ref: https://www.jianshu.com/p/36f2eac54d2c
  typedef g2o::BlockSolver<g2o::BlockSolverTraits<2,1>> BlockSolverType;
  /// 定义块求解器,将用于生成 H 和 b 的结构;       pose,landmark:都表示变量的维度
  /// 将生成 H 和 b 结构 :
  ///                       H = Hpp Hpl   b = bp
  ///                           Hlp Hll       bl
  BlockSolverType::LinearSolverType *linearSolverType = new g2o::LinearSolverDense<BlockSolverType::PoseMatrixType>(); 
  ///定义线性求解器; 这里用到了 Schur 消元,参见第9讲,线性求解器的结构与 Hpp 相同,即 ::PoseMatrixType
    
  BlockSolverType *solver_ptr = new BlockSolverType(linearSolverType); //生成块求解器对象
   
  g2o::OptimizationAlgorithmLevenberg *solver = new g2o::OptimizationAlgorithmLevenberg(solver_ptr); /// 配置算法
  g2o::SparseOptimizer optimizer; /// 声明图模型(优化器);
  optimizer.setAlgorithm(solver); /// 把(求解器+算法)导入模型
  optimizer.setVerbose(true); /// 输出到调试
  
  // 3. 添加顶点和边
  CurveFittingVertex1 *v1 = new CurveFittingVertex1();
  v1->setEstimate( Eigen::Vector2d(0,0) ); /// 顶点赋初值
  v1->setId(0);
  optimizer.addVertex(v1); /// 添加顶点,Id为0
   
  CurveFittingVertex2 *v2 = new CurveFittingVertex2();
  v2->setEstimate(0); /// 顶点赋初值
  v2->setId(1);
  v2->setMarginalized(true); /// ! ! ! ! 这里必须要设置边缘化,因为 v2 对应 landmark, 在配置求解器时被消元了
  optimizer.addVertex(v2); /// 添加顶点,Id为1
   
  for (int i=0; i<N; i++) /// 100组数据,100条边
  {
    CurveFittingEdge *edge = new CurveFittingEdge(x_data[i]); ///构造CurveFittingEdge类的对象edge
    edge->setId(i);
    edge->setVertex(0,v1); /// edge连接顶点 v1 和 v2
    edge->setVertex(1,v2);
    edge->setMeasurement(y_data[i]); /// 观测值
    edge->setInformation( Eigen::Matrix<double,1,1>::Identity()*1/(w_sigma*w_sigma) );/// 信息矩阵,权重
    optimizer.addEdge(edge);
  }
   
  cout << "Start optimization" << endl;
  
  chrono::steady_clock::time_point t1 = chrono::steady_clock::now();
  // 4. 求解
  optimizer.initializeOptimization();
  optimizer.optimize(100); /// 最大迭代次数100
  chrono::steady_clock::time_point t2 = chrono::steady_clock::now();
  
  chrono::duration<double> time_used = chrono::duration_cast<chrono::duration<double>>(t2-t1);
  cout << "Solve time cost = " << time_used.count() << " seconds. " << endl;
   
  Eigen::Vector2d ab_estimate = v1->estimate();
  double c_estimate = v2->estimate();
  cout << "True value of model: a = 1.0, b = 2.0, c = 1.0\n";
  cout << "Estimated model: \n" << "a_estimated = " << ab_estimate[0] 
                                << "\nb_estimated = " << ab_estimate[1]
                                << "\nc_estimated =" << c_estimate << endl;
   
  return 0;  
}

  • 0
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
视觉SLAM十四第二版主要分为三个大部分:激光SLAM视觉SLAM和激光视觉等多传感器融合SLAM。在激光SLAM部分,书中介绍了激光传感器的原理、产品选型,以及开源激光SLAM系统的介绍、比较和分类。此外,书中还介绍了深度学习在激光SLAM中的应用以及激光SLAM面临的挑战和未来发展。在视觉SLAM部分,书中涵盖了视觉传感器的原理、产品选型,以及开源视觉SLAM系统和视觉惯性系统的介绍、比较和分类。同样地,书中还讨论了深度学习在视觉SLAM中的应用以及视觉SLAM的挑战和未来。最后,在多传感器SLAM系统部分,书中介绍了多传感器之间的内外参标定方法,并从硬件层、数据层和任务层介绍了现有的多传感器融合工具、融合技术和融合产品。书中还探讨了多传感器融合面临的挑战和未来发展。 总而言之,《视觉SLAM十四第二版主要介绍了激光SLAM视觉SLAM和激光视觉等多传感器融合SLAM的原理、应用、挑战以及未来发展。这本书适合对SLAM感兴趣的读者,无论是从事相关研究还是工程应用的人员都会受益。阅读本书可以帮助读者了解SLAM的基本概念和方法,并深入探讨SLAM在不同传感器和多传感器融合下的应用和挑战。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [《视觉SLAM十四(高翔)》高清中文PDF 1](https://download.csdn.net/download/weixin_35823755/86294534)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [视觉slam十四 第二版 pdf_第二版SLAM上帝视角,它来啦!!!](https://blog.csdn.net/weixin_39620001/article/details/111384898)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值