ORB-SLAM2源码逐行解析系列(三):ORB-SLAM2中的Frame结构

1. 构造Frame

(1)大致流程

  • 更新帧ID
  • 获取图像金字塔参数
  • ExtractORB:提取ORB特征点
  • UndistortKeyPoints:对提取到的特征点进行去畸变
  • mbInitialComputations(可选):计算去畸变后的图像边界,一般是在第一帧或者相机标定参数发生变化之后进行
  • AssignFeaturesToGrid:分配特征点到图像网格中

(2)代码实现

/**
 * @brief 单目帧构造函数
 * 
 * @param[in] imGray                            // 灰度图
 * @param[in] timeStamp                         // 时间戳
 * @param[in & out] extractor                   // ORB特征点提取器的句柄
 * @param[in] voc                               // ORB字典的句柄
 * @param[in] K                                 // 相机的内参数矩阵
 * @param[in] distCoef                          // 相机的去畸变参数
 * @param[in] bf                                // baseline*f
 * @param[in] thDepth                           // 区分远近点的深度阈值
 */
Frame::Frame(const cv::Mat &imGray, const double &timeStamp, 
             ORBextractor* extractor,ORBVocabulary* voc, cv::Mat &K, 
             cv::Mat &distCoef, const float &bf, const float &thDepth)
             :mpORBvocabulary(voc),mpORBextractorLeft(extractor),
             mpORBextractorRight(static_cast<ORBextractor*>(NULL)),
             mTimeStamp(timeStamp), mK(K.clone()), mDistCoef(distCoef.clone()), 
             mbf(bf), mThDepth(thDepth)
{
	// Step 1 更新帧的ID(自增)    注意:Frame ID(nNextId)是一个静态变量,作用域为全局
    mnId=nNextId++;

    // Step 2 获取图像金字塔的参数 (在构造SLAM系统时已计算出)
	// 获取图像金字塔的层数
    mnScaleLevels = mpORBextractorLeft->GetLevels();
	// 获取每层的缩放因子
    mfScaleFactor = mpORBextractorLeft->GetScaleFactor();
	// 计算每层缩放因子的自然对数
    mfLogScaleFactor = log(mfScaleFactor);
	// 获取各层图像的缩放因子
    mvScaleFactors = mpORBextractorLeft->GetScaleFactors();
	// 获取各层图像的缩放因子的倒数
    mvInvScaleFactors = mpORBextractorLeft->GetInverseScaleFactors();
	// 获取sigma^2
    mvLevelSigma2 = mpORBextractorLeft->GetScaleSigmaSquares();
	// 获取sigma^2的倒数
    mvInvLevelSigma2 = mpORBextractorLeft->GetInverseScaleSigmaSquares();  
                 
    // Step 3 对这个单目图像提取ORB特征点, 第一个参数0-左图, 1-右图
    // 对于单目而言只有左图,对于双目而言,在初始化时使用左右图,在跟踪时只使用左图
    ExtractORB(0,imGray);
	// 求出特征点的个数
    N = mvKeys.size();
	// 如果没有能够成功提取出特征点,那么就直接返回了
    if(mvKeys.empty())
        return;
                 
  // Step 4 用OpenCV的矫正函数、内参对提取到的特征点进行矫正(VINS-Mono中是采用逐次逼近的方法进行矫正)
  // 因为如果镜头的视场角较大的话,提取到的特征点是带畸变的
    UndistortKeyPoints();
    // 设置双目信息
	// 由于单目相机无法直接获得立体信息,所以这里要给右图像对应点和深度赋值-1表示没有相关信息
    mvuRight = vector<float>(N,-1);
    mvDepth = vector<float>(N,-1);
                 
    // 初始化当前帧的地图点(初始为空)
    mvpMapPoints = vector<MapPoint*>(N,static_cast<MapPoint*>(NULL));
	// 记录地图点是否为外点,初始化均为外点false
    mvbOutlier = vector<bool>(N,false);
         
/*
  Step 5 前面的UndistortKeyPoints()主要是对提取到的特征点进行去畸变,这里主要是对输入图像的4个边界角点进行去畸变. 然后计算去畸变后的图像边界,这个过程一般是在第一帧或者是相机标定参数发生变化之后进行
         即mbInitialComputations = true的情况下进行,否则直接进行特征点分配
*/
    if(mbInitialComputations)
    {
		// 计算去畸变后原始图像的边界(此时不存在图像金字塔)  [(mnMinX, mnMaxX), (mnMinY, mnMaxY)]
        ComputeImageBounds(imGray);

		// 表示一个图像像素相当于多少个图像网格列(宽)
        mfGridElementWidthInv=static_cast<float>(FRAME_GRID_COLS)/static_cast<float>(mnMaxX-mnMinX);
		// 表示一个图像像素相当于多少个图像网格行(高)
        mfGridElementHeightInv=static_cast<float>(FRAME_GRID_ROWS)/static_cast<float>(mnMaxY-mnMinY);

		// 给类的静态成员变量复制
        fx = K.at<float>(0,0);
        fy = K.at<float>(1,1);
        cx = K.at<float>(0,2);
        cy = K.at<float>(1,2);
		// 猜测是因为这种除法计算需要的时间略长,所以这里直接存储了这个中间计算结果
        invfx = 1.0f/fx;
        invfy = 1.0f/fy;

		// 特殊的初始化过程完成,标志复位
        mbInitialComputations=false;
    }

    //计算 basline
    mb = mbf/fx;
	// 将特征点分配到图像网格中 
    AssignFeaturesToGrid();
}
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: ORB-SLAM2是一款基于特征点的SLAM算法,可以在实时运实现稠密地图的构建和定位。ORB-SLAM2的代码解析v1.2 pdf为ORB-SLAM2算法的代码进详细讲解的文档。 这个文档详细介绍了ORB-SLAM2算法的各个模块以及其组成部分,包括图像预处理、特征点提取、视觉里程计、回环检测、地图构建和定位等。对于每个模块,文档都进了详细的讲解,并展示了一些代码实现和示例。 其,ORB特征点的提取是ORB-SLAM2的一个重要特点。文档详细介绍了ORB特征点的提取与描述,并对其进了性能优化。在视觉里程计,文档详细介绍了基于ORB-SLAM2的相机位姿估计算法,并同时对其进了实验验证。 此外,orb-slam2解析 v1.2 pdf还对ORB-SLAM2的一些扩展进了介绍,如RGBD-SLAM、半稠密点云地图构建、直接法视觉里程计等等。 总之,ORB-SLAM2是一个非常强大的SLAM算法,通过对orb-slam2解析 v1.2 pdf的学习,可以更好地理解其原理和实现,也为进一步研究和应用提供了参考。 ### 回答2: ORB-SLAM2是一种基于单目相机的实时稠密SLAM系统,被广泛应用于机器人、自动驾驶、增强现实等领域。ORB-SLAM2解析v1.2 pdf是一份PDF文档,对ORB-SLAM2代码进了详细的解析和分析。 该文档分为多个章节,首先介绍了ORB-SLAM2的概述和背景,包括SLAM系统的基本原理和ORB特征点的提取与匹配算法。接着,文档对ORB-SLAM2的系统框架、流程和算法进了详细介绍,主要包括定位、建图、闭环检测和重定位等核心模块的实现细节。 文档还对ORB-SLAM2的实验结果和性能进了评估和分析,包括系统的重定位精度、建图质量、算法复杂度和实时性等指标。同时,文档还针对ORB-SLAM2的应用场景进了讨论和展望,包括基于ORB-SLAM2的三维重建、SLAM与深度学习的融合等前沿研究方向。 总之,ORB-SLAM2解析v1.2 pdf是一份非常有价值的文档,对想要深入了解和应用ORB-SLAM2的研究者和开发者有很大的帮助和启发作用。它不仅详细介绍了ORB-SLAM2的理论基础和实现细节,还从实验和应用角度对其性能和前景进了评估和展望,为相关领域的技术人员提供了重要的参考和指导。 ### 回答3: ORB-SLAM2是一种基于单目或双目相机的实时视觉SLAM系统,可以在无GPS信号的情况下,通过对相机的位置和姿态的估计,构建3D环境地图。 ORB-SLAM2解析 v1.2 PDF是一份解析ORB-SLAM2码的文档,其包含了ORB-SLAM2的基本架构、算法实现以及关键代码的详细解释。通过学习该文档,可以深入了解ORB-SLAM2的原理和实现方法,从而更好地应用该系统进SLAM操作。 该文档主要包括以下几个部分: 1.ORB-SLAM2的系统结构:介绍ORB-SLAM2的整体结构和各模块之间的关系。 2.特征提取与匹配:详细介绍ORB特征的提取和匹配算法,包括ORB算法原理、特征对齐和描述符生成等。 3.全局BA和回环检测:讲解ORB-SLAM2的全局优化和回环检测方法,其包括BA算法流程、优化目标函数、回环检测的实现等。 4.实时定位:探讨如何实现ORB-SLAM2的实时运动估计和位姿估计,包括相机位姿估计、尺度恢复和点云重建等内容。 除此之外,该文档还对ORB-SLAM2的一些高级技术进了讲解,如基于深度学习的特征提取、基于语义信息的地图构建等。 总之,该文档是一份非常有价值的ORB-SLAM2解析资料,对于深入了解ORB-SLAM2的实现原理、优化方法和应用场景,具有重要的参考意义。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值