SLAM十四讲---前端0.4----VO+局部地图

地图VO

之前计算位姿的方法是,两两帧间运用特征匹配,PnP方法计算位姿并用g2o进行单元边的3d-2d的优化。

虽说用g2o优化已经能够避免一部分噪声对RANSAC的PnP的影响。

但是,如果存在帧丢失的情况,可能距离比较远的两帧进行特征匹配和PnP求解的话可能匹配上的点比较少。因此位姿计算可能不够精确。并最终会出现追踪丢失Lost状态。
此外,全用两帧间计算的话误差累计漂移是个很严重的问题,

因此我们加入局部地图的概念(local mapping),每一帧都为VO维护的map_中提供新的地图点(携带着自身的描述子),计算位姿时通过2d关键点与3d携带描述子的地图点进行匹配,然后再进行3d-2d的PnP方法,能够在一定程度上解决VO的LOST问题。

由于地图点的坐标直接采用世界坐标,因此我们可以直接求出当前帧在世界坐标系中的位姿Tcw,而不是Tcf (或者说而不是Tij)

这样就讲得通了,为什么说位姿图中,误差项为Tij^(-1) * Ti * Tj,Ti和Tj是前端的结果,Tij是用特征点法或者直接法或者IMU或者GPS得到的。终于明白了!!!!!!!!

下面着重考虑局部地图 local mapping的VO,被称为——地图VO

在这里插入图片描述

这里的局部地图和slam的建图不一样,暂时还没有考虑全局地图。这里只是局部地图,简单的把一些比较近的、视野内的特征点缓存到一个地方,是一个小地图。而slam建图过程中的全局地图却储存了所有的特征点。但是直接在全局上定位,计算量很大(全局地图主要用于回环检测和地图表达)。因此在这里我们维护一个小的局部地图,从而实现通过小地图(局部地图)进行定位当前位姿。

是否使用局部地图,是出于对效率和精度这一矛盾体的仔细考量:
在这里插入图片描述
根据看代码,有下面几点发现:

(1)addKeyFrame,增加关键帧的时候,提供了一个功能:
因为我们让第一帧成为了关键帧,所以加入第一帧的时候,把第一帧的特征点加入到地图中,在普通VO也确实是这么做的,但是是根据setRef3DPoints这个单独的函数做的。这里是把功能集成到addKeyFrame中。

(2)Mat竟然也有尾插,这是很让人兴奋的:
desp_map.push_back( p->descriptor_ ); // 插上一行能观察到的地图点的描述子

(3)直接与地图匹配,是地图VO的特点,并且用了cv::FlannBasedMatcher matcher_flann_; 匹配器
matcher_flann_.match ( desp_map, descriptors_curr_, matches ); // flann matcher将嫩观测到的地图点与当前帧关键点进行匹配,注意,这里和普通VO是不一样的

(4)向地图中增加关键帧的机制是:当前帧的关键点一旦和地图点匹配上了,那么就无视他。没有匹配上的关键点需要映射到世界坐标系中,增加局部地图点的规模。具体看函数:void Map_VisualOdometry::addMapPoints()

(5)void Map_VisualOdometry::optimizeMap()这个函数实现了添加新点(嵌套着addMapPoints()),并且实现了控制局部地图的规模,控制手段如下:
(i)根据匹配率筛选:
匹配率 = 匹配上次数/观测到的次数
有些三维点被观测到了很多次(isInFrame),但是匹配上的次数很少,不知道原因为何,那既然匹配的少,就直接删掉吧。
(ii)根据视角删除点
angle = getViewAngle( curr_, iter->second );获得视角,这个点如果在当前帧视野中太偏,即处在边缘位置,那么就删掉。
(iii)当前帧与路标点的匹配少于100个,才加入地图,否则地图规模容易太大— 但我觉得问题不大,因为有下面这一步:
(iv)直接控制地图点规模,当地图点增加到1000个以上的时候,迭代增加门槛map_point_erase_ratio_,这样有更多匹配率比较低的点被删除,一直删到总地图点小于1000个。------这一块代码是我自己补充的。

后话

由于我一直在0.1上增删代码,没有直接用后面的0.2 0.3 0.4版本的代码,所以直接继承是一个好方法:

map_visual_odometry.h

继承部分如下。子类叫做:map_visual_odometry

#ifndef MAP_VISUALODOMETRY_H
#define MAP_VISUALODOMETRY_H

#include "visual_odometry.h"

// 在这里继承一下父类(VisualOdometry),实现地图VO

namespace myslam
{
  
  class Map_VisualOdometry:public VisualOdometry  // 继承一下,避免大量修改原始VO代码
  {
    
public:
    typedef shared_ptr<Map_VisualOdometry> Ptr;

附上优化地图的代码:(有我自己写的一点) Map_VisualOdometry::optimizeMap()

void Map_VisualOdometry::optimizeMap()  // 加入新点,清理一波观测次数太少的、太边缘的点
{
    // remove the hardly seen and no visible points 
    for ( auto iter = map_->map_points_.begin(); iter != map_->map_points_.end(); )
    {
        if ( !curr_->isInFrame(iter->second->pos_) )   // 位姿估计完毕以后,如果当前帧看不到的地图点,那么清除掉
        {
            iter = map_->map_points_.erase(iter);
            continue;
        }
        float match_ratio = float(iter->second->matched_times_)/iter->second->visible_times_;  // 这个点的,匹配上次数/可观测到的次数
        if ( match_ratio < map_point_erase_ratio_ )  // map_point_erase_ratio_ = 0.1,为yaml读入
        {
            iter = map_->map_points_.erase(iter);   // 在map_中去除这个点,因为这个点匹配率太低了,可以控制局部地图的规模
            continue;
        }
        
        double angle = getViewAngle( curr_, iter->second );
        if ( angle > M_PI/6. )
        {
            iter = map_->map_points_.erase(iter);  // 太边缘的点也给擦掉
            continue;
        }
        if ( iter->second->good_ == false )
        {
            // TODO try triangulate this map point 
	    // 我觉得暂时不用——直接在上面3p-2p的g2o处同时优化位姿和对应的特征点即可
	    // 也就是用二元边,这个以后再加代码吧
        }
        iter++;
    }
    
    if ( match_2dkp_index_.size()<100 )  // 匹配上少于100个再加入地图,否则地图规模容易太大
        addMapPoints();  // 在这里加入新的地图点
    if ( map_->map_points_.size() > 1000 )  // 控制地图点规模,迭代增加门槛map_point_erase_ratio_
    {
      // TODO map is too large, remove some one
      map_point_erase_ratio_ += 0.05;
      while (map_->map_points_.size() > 1000)
      {
	Map_VisualOdometry::optimizeMap();  // 提高门槛,调用自己
      }
    }
    else 
        map_point_erase_ratio_ = 0.1;
    cout<<"map points: "<<map_->map_points_.size()<<endl;
}


至此前端完成。(普通VO + 地图VO的实现)

暂时还没有用到关键帧,仅仅是当前后两帧距离较远的时候插入关键帧。

关键帧主要是后端用的。

可以联系我获取完整的带注释的和有我自己补充的、适应各种新版本库(比如模板类sophus和新版本g2o)的代码。

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 《视觉SLAM十四》第三章主要介绍了视觉SLAM中的关键技术——特征提取和描述子。本章首先介绍了特征点的概念和特征点的选择原则。特征点即图像中具有鲁棒性和区分度的点,可以通过对其进行检测和描述来进行特征匹配和跟踪。在进行特征提取时,作者介绍了常见的特征检测算法,如Harris角点检测、SIFT和SURF算法等,并对其进行了比较和分析。 接着,本章详细阐述了特征描述子的概念和作用。特征描述子是对特征点周围区域的图像信息进行编码,以实现特征匹配和跟踪。常见的特征描述子包括SIFT、SURF和ORB等。作者从描述子的表示形式、计算方式和匹配方法等方面进行了介绍,并对它们进行了比较和评价。同时,还提到了基于二进制描述子的方法,如BRIEF、BRISK和FREAK等。 在特征匹配方面,本章介绍了特征描述子匹配的基本原理和流程。以基于特征点的视觉SLAM为例,作者详细解释了特征点的匹配过程,包括特征点的选择、特征点描述子匹配和筛选等步骤。并介绍了如何通过验证特征点的三角化和PnP求解来估计相机的位姿。 此外,本章还介绍了一些特定场景下的特征点选择和提取策略,如动态环境下的特征点追踪和关键帧选择等。 综上所述,《视觉SLAM十四》第三章主要介绍了特征提取和描述子在视觉SLAM中的重要性和应用。通过对特征点的检测和描述,可以实现特征匹配和跟踪,为后续的相机位姿估计和建图提供基础。该章内容详细且通俗易懂,对于学习和理解视觉SLAM有着重要的指导作用。 ### 回答2: 《视觉SLAM十四-Ch3》主要介绍了视觉SLAM(同时定位与建图)技术的基本原理和实现方法。本章主要涵盖了三维几何表示和变换、相机模型和相机姿态以及特征提取与匹配等内容。 首先,本章介绍了三维几何表示和变换的概念。通过介绍欧氏空间中的点、向量和坐标变换,深入解释了相机在三维空间中的位置和朝向的表示方式。同时,引入了齐次坐标和投影矩阵的概念,为后续的相机模型和姿态估计打下了基础。 其次,本章详细解了相机模型和相机姿态的原理与应用。其中,介绍了针孔相机模型,分析了图像坐标和相机坐标之间的映射关系。通过投影矩阵的推导,给出了透视投影和仿射投影的公式,并解释了相机焦距和主点的含义。此外,还介绍了如何通过计算相机的外参矩阵来估计相机的姿态,以及如何将图像坐标转换为相机坐标。 最后,本章介绍了特征提取与匹配的技术。首先,介绍了角点和边缘点的概念,以及如何利用差分和梯度计算来检测图像中的角点和边缘点。然后,介绍了如何通过特征描述符来表示图像中的特征点,并通过特征匹配算法找到两幅图像之间的对应关系。特征提取与匹配是视觉SLAM中非常重要的步骤,对于后续的相机定位和建图至关重要。 综上所述,《视觉SLAM十四-Ch3》通过系统地介绍了视觉SLAM技术的基本概念和实现方法,包括三维几何表示和变换、相机模型和相机姿态的原理与应用,以及特征提取与匹配的技术。这些内容为读者深入理解和掌握SLAM技术提供了很好的基础。 ### 回答3: 视觉SLAM(Simultaneous Localization and Mapping)是一种通过计算机视觉技术,实现机器智能的同时实时定位和地图构建的方法。在《视觉SLAM十四》第三中,主要介绍了视觉SLAM的基本概念和关键技术。 首先,解了视觉SLAM的理论基础,包括自我运动估计和地图构建两个部分。自我运动估计是通过相邻帧之间的视觉信息,计算相机在三维空间中的运动,从而实现机器的实时定位;地图构建是通过对场景中特征点的观测和跟踪,建立起一个三维空间中的地图。这两个过程相互影响,通过不断迭代优化,实现高精度的定位和地图构建。 接着,解了基于特征的视觉SLAM算法。特征提取与描述是建立视觉SLAM系统的关键步骤,通过提取场景中的特征点,并为其生成描述子,来实现特征点的匹配和跟踪。同时,还介绍了一些常用的特征点提取和匹配算法,如FAST、SIFT等。 在SLAM框架方面,本节还介绍了基于视觉的前端和后端优化。前端主要负责实时的特征跟踪和估计相机运动,后端则是通过优化技术,对前端输出的轨迹和地图进行优化求解,从而提高系统的精度和鲁棒性。 最后,本节提到了几个视觉SLAM的应用场景,如自主导航、增强现实等。这些应用对于实时高精度的定位和地图建立都有着很高的要求,因此,视觉SLAM的技术在这些领域有着广泛的应用前景。 总的来说,《视觉SLAM十四》第三对视觉SLAM的基本概念和关键技术进行了系统的介绍。理论基础、特征提取与描述、SLAM框架和应用场景等方面的内容都给出了详细的解释和案例,有助于读者更好地理解和应用视觉SLAM技术。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值