【SLAM】视觉SLAM十四讲-设计前端v0.2

说在前面

代码理解

  • VO

    • 代码仅包括前端的实现,并且使用的方法为两两帧的视觉里程计;
    • 大致流程
      1. 捕获第一帧,将该帧设置为关键帧以及参考帧,使用ORB方法提取该帧的关键点并计算描述子,将这些关键点通过相机内参计算出对应的相机坐标系中的3D坐标(由针孔相机模型,三角形相似,参见here),同时记录每个关键点对应的描述子。
      2. 捕获下一帧,同样提取关键点、计算描述子,然后与参考帧进行特征匹配(这里使用的是暴力匹配方法),根据匹配成功的点对使用PnP方法来估计相机姿态。
        (问题:PnP来估计时的3D坐标应该要是世界坐标系的坐标,但是代码中用的却是相机坐标系,不知道哪里出了问题…)
        (猜想:可能和书上 T c w = T c r T r w T_{cw}=T_{cr}T_{rw} Tcw=TcrTrw这个左乘关系有关;)
        (原因将第一帧作为世界坐标系,假设第二帧的姿态是良好的,那么第二帧就是相对于第一帧的姿态,然后又将第二帧作为世界坐标系,通过第二三帧计算姿态,也就是相对于第二帧的姿态,那么第二个姿态 ⋅ \cdot 第一个姿态也就是第三帧相对于第一帧的姿态。应该是这个意思,我还是太菜了/(ㄒoㄒ)/ )
      3. 判断当前计算的相机姿态是否符合预设的阈值;
        若符合,则当前帧的相机姿态=当前帧计算得到的相机姿态 ⋅ \cdot 参考帧的相机姿态(即 T c w = T c r T r w T_{cw}=T_{cr}T_{rw} Tcw=TcrTrw),并将当前帧作为参考帧计算关键点的3D坐标;然后还需判断当前帧是否为关键帧;
        若不符合,说明该帧丢失,统计丢失帧总数,当丢失帧数目达到预设阈值,算法结束。
      4. 返回第二步
  • Code

    • Config类
      用于读取default.yml文件中的配置参数。实际使用的时候如果出问题(无法读取,出现段错误),建议改一下。
    • Camera类
      相机内参以及坐标系变换。由于用到了Config类,也注意一下。
    • Map类、Mappoint类
      这俩存在感暂时不高。
    • Frame类
      帧。
    • VisualOdometry类
      VO。最关键的一个类,主要流程在该类中实现。
      成员变量
          VOState     state_;     // 当前VO状态,包括INITIALIZING、OK、LOST
          Map::Ptr    map_;       // 记录所有帧以及特征点
          Frame::Ptr  ref_;       // 参考帧
          Frame::Ptr  curr_;      // 当前帧 
          
          cv::Ptr<cv::ORB> orb_;  // OpenCV提供的ORB检测
          vector<cv::Point3f>     pts_3d_ref_;        // 参考帧中的3D点
          vector<cv::KeyPoint>    keypoints_curr_;    // 当前帧中的关键点,ORB提取
          Mat                     descriptors_curr_;  // 当前帧的关键点对应的描述子
          Mat                     descriptors_ref_;   // 参考帧的描述子
          vector<cv::DMatch>      feature_matches_;   // 特征匹配对,存储特诊匹配的结果
          
          SE3 T_c_r_estimated_;  // 当前帧的姿态估计
          int num_inliers_;        // number of inlier features in icp
          int num_lost_;           // 丢失帧计数
          
          // parameters 
          int num_of_features_;   // ORB参数
          double scale_factor_;   // ORB参数
          int level_pyramid_;     // ORB参数
          float match_ratio_;      // 特征匹配使用的参数
          int max_num_lost_;      // 预设的丢失帧阈值
          int min_inliers_;       // 用于评估姿态估计
          
          double key_frame_min_rot;   // 用于判断是否为关键帧
          double key_frame_min_trans; // 用于判断是否为关键帧
      
      成员函数
      bool addFrame( Frame::Ptr frame );
      主要函数,实现了VO的基本流程;
      bool VisualOdometry::addFrame ( Frame::Ptr frame )
      {
          switch ( state_ )
          {
          //VO类在初始化的时候,状态设置为INITIALIZING,所以第一帧必定进入INITIALIZING分支
          case INITIALIZING:
          {
              state_ = OK;
              curr_ = ref_ = frame;
              map_->insertKeyFrame ( frame );
              // 提取当前帧的关键点
              extractKeyPoints();
              //计算当前帧的描述子
              computeDescriptors();
              // 计算关键点对应的3D坐标
              setRef3DPoints();
              break;
          }
          case OK:
          {
              curr_ = frame;
              extractKeyPoints();
              computeDescriptors();
              //与参考帧进行特征匹配
              featureMatching();
              //姿态估计
              poseEstimationPnP();
              if ( checkEstimatedPose() == true ) // a good estimation
              {
                  curr_->T_c_w_ = T_c_r_estimated_ * ref_->T_c_w_;  // T_c_w = T_c_r*T_r_w 
                  ref_ = curr_;
                  setRef3DPoints();
                  num_lost_ = 0;
                  if ( checkKeyFrame() == true ) // is a key-frame
                  {
                      addKeyFrame();
                  }
              }
              else // bad estimation due to various reasons
              {
                  num_lost_++;
                  if ( num_lost_ > max_num_lost_ )
                  {
                      state_ = LOST;
                  }
                  return false;
              }
              break;
          }
          case LOST:
          {
              cout<<"vo has lost."<<endl;
              break;
          }
          }
      
          return true;
      }
      
      void VisualOdometry::setRef3DPoints()
      计算参考帧中特征点的3d坐标;(可以看到用的是pixel2camera()这个函数,转换成了相机坐标系中的点?)
      void VisualOdometry::setRef3DPoints()
      {
          // select the features with depth measurements 
          pts_3d_ref_.clear();
          descriptors_ref_ = Mat();
          for ( size_t i=0; i<keypoints_curr_.size(); i++ )
          {
              double d = ref_->findDepth(keypoints_curr_[i]);               
              if ( d > 0)
              {
                  Vector3d p_cam = ref_->camera_->pixel2camera(
                      Vector2d(keypoints_curr_[i].pt.x, keypoints_curr_[i].pt.y), d
                  );
                  pts_3d_ref_.push_back( cv::Point3f( p_cam(0,0), p_cam(1,0), p_cam(2,0) ));
                  descriptors_ref_.push_back(descriptors_curr_.row(i));
              }
          }
      }
      
      void extractKeyPoints();
      void computeDescriptors();
      void featureMatching();
      这几个函数就是OpenCV中一些常用的使用,见opencv featrue2d module

运行结果

在这里插入图片描述

改进:单目版本

  • 方式

    • 由于单目相机没有深度信息,我们可以假设特征点的深度均为1(详见《视觉SLAM十四讲》7.4.1 讨论)
  • 运行结果

    • 由于WSL不能直接访问摄像头,可以使用摄像头录制一段视频(运动尽量平稳、低速),然后使用OpenCV读取视频文件,记得修改default.yml文件中的相机内参。(或者直接使用TUM数据集,将setRef3DPoints函数中的深度d改为1)
      在这里插入图片描述
  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
### 回答1: 《视觉SLAM十四》第三章主要介绍了视觉SLAM中的关键技术——特征提取和描述子。本章首先介绍了特征点的概念和特征点的选择原则。特征点即图像中具有鲁棒性和区分度的点,可以通过对其进行检测和描述来进行特征匹配和跟踪。在进行特征提取时,作者介绍了常见的特征检测算法,如Harris角点检测、SIFT和SURF算法等,并对其进行了比较和分析。 接着,本章详细阐述了特征描述子的概念和作用。特征描述子是对特征点周围区域的图像信息进行编码,以实现特征匹配和跟踪。常见的特征描述子包括SIFT、SURF和ORB等。作者从描述子的表示形式、计算方式和匹配方法等方面进行了介绍,并对它们进行了比较和评价。同时,还提到了基于二进制描述子的方法,如BRIEF、BRISK和FREAK等。 在特征匹配方面,本章介绍了特征描述子匹配的基本原理和流程。以基于特征点的视觉SLAM为例,作者详细解释了特征点的匹配过程,包括特征点的选择、特征点描述子匹配和筛选等步骤。并介绍了如何通过验证特征点的三角化和PnP求解来估计相机的位姿。 此外,本章还介绍了一些特定场景下的特征点选择和提取策略,如动态环境下的特征点追踪和关键帧选择等。 综上所述,《视觉SLAM十四》第三章主要介绍了特征提取和描述子在视觉SLAM中的重要性和应用。通过对特征点的检测和描述,可以实现特征匹配和跟踪,为后续的相机位姿估计和建图提供基础。该章内容详细且通俗易懂,对于学习和理解视觉SLAM有着重要的指导作用。 ### 回答2: 《视觉SLAM十四-Ch3》主要介绍了视觉SLAM(同时定位与建图)技术的基本原理和实现方法。本章主要涵盖了三维几何表示和变换、相机模型和相机姿态以及特征提取与匹配等内容。 首先,本章介绍了三维几何表示和变换的概念。通过介绍欧氏空间中的点、向量和坐标变换,深入解释了相机在三维空间中的位置和朝向的表示方式。同时,引入了齐次坐标和投影矩阵的概念,为后续的相机模型和姿态估计打下了基础。 其次,本章详细解了相机模型和相机姿态的原理与应用。其中,介绍了针孔相机模型,分析了图像坐标和相机坐标之间的映射关系。通过投影矩阵的推导,给出了透视投影和仿射投影的公式,并解释了相机焦距和主点的含义。此外,还介绍了如何通过计算相机的外参矩阵来估计相机的姿态,以及如何将图像坐标转换为相机坐标。 最后,本章介绍了特征提取与匹配的技术。首先,介绍了角点和边缘点的概念,以及如何利用差分和梯度计算来检测图像中的角点和边缘点。然后,介绍了如何通过特征描述符来表示图像中的特征点,并通过特征匹配算法找到两幅图像之间的对应关系。特征提取与匹配是视觉SLAM中非常重要的步骤,对于后续的相机定位和建图至关重要。 综上所述,《视觉SLAM十四-Ch3》通过系统地介绍了视觉SLAM技术的基本概念和实现方法,包括三维几何表示和变换、相机模型和相机姿态的原理与应用,以及特征提取与匹配的技术。这些内容为读者深入理解和掌握SLAM技术提供了很好的基础。 ### 回答3: 视觉SLAM(Simultaneous Localization and Mapping)是一种通过计算机视觉技术,实现机器智能的同时实时定位和地图构建的方法。在《视觉SLAM十四》第三中,主要介绍了视觉SLAM的基本概念和关键技术。 首先,解了视觉SLAM的理论基础,包括自我运动估计和地图构建两个部分。自我运动估计是通过相邻帧之间的视觉信息,计算相机在三维空间中的运动,从而实现机器的实时定位;地图构建是通过对场景中特征点的观测和跟踪,建立起一个三维空间中的地图。这两个过程相互影响,通过不断迭代优化,实现高精度的定位和地图构建。 接着,解了基于特征的视觉SLAM算法。特征提取与描述是建立视觉SLAM系统的关键步骤,通过提取场景中的特征点,并为其生成描述子,来实现特征点的匹配和跟踪。同时,还介绍了一些常用的特征点提取和匹配算法,如FAST、SIFT等。 在SLAM框架方面,本节还介绍了基于视觉前端和后端优化。前端主要负责实时的特征跟踪和估计相机运动,后端则是通过优化技术,对前端输出的轨迹和地图进行优化求解,从而提高系统的精度和鲁棒性。 最后,本节提到了几个视觉SLAM的应用场景,如自主导航、增强现实等。这些应用对于实时高精度的定位和地图建立都有着很高的要求,因此,视觉SLAM的技术在这些领域有着广泛的应用前景。 总的来说,《视觉SLAM十四》第三视觉SLAM的基本概念和关键技术进行了系统的介绍。理论基础、特征提取与描述、SLAM框架和应用场景等方面的内容都给出了详细的解释和案例,有助于读者更好地理解和应用视觉SLAM技术。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值