R3live&Fastlio2

Fastlio2

主要代码结构:

  • laserMapping.cpp:fastlio2主程序,生成PreprocessImuProcess实例
    pcl::VoxelGrid<PointType> downSizeFilterSurf;
    
  • preprocess.cpp:激光雷达点云数据处理(Preprocess类)
  • IMU_Processing.hpp:IMU数据处理(ImuProcess类)
    • process()函数用来给点云去畸变

ROS转PCL:

#include <pcl_conversions/pcl_conversions.h>
template<PointType>
pcl::PointCloud<PointType> pcl_pointcloud;//模板点云类,模板参数是点的格式
pcl::fromROSMsg(*msg, pcl_poincloud);//把ROS消息转化成pcl点云格式
for (uint i = 0; i < pointcloud_size; i++)//遍历点云的每一个点
	pcl_pointcloud.points[i];//每一个点
}

livox雷达数据格式
livox的时间戳是以ns为单位,点云的header->stamp记录了这一帧点云的起始时间,每个点的offset_time记录了每个点相对点云stamp的偏移量。
robosense的时间戳是以s为单位,点云的header->stamp记录了这一帧点云的结束时间

问题记录:

  1. 经过rs_to_velodyne处理过后和robosense_handler处理之后的点云不同
  2. point_filter_num参数设置大建图效果变差。

R3live

在传统SLAM框架下搭建了一套高性能雷达odometry-彩色点云Mapping-三维重建的体系,将Lidar-相机-IMU更直接有效的融合。它在建图的同时把RGB信息通过VIO子系统给点云上色,并通过一定的方法优化这个上色。

注意: R3live默认雷达和IMU坐标系重合,在R3live发布的tf中有两个坐标系:

  • world:世界坐标系
  • aft_mapped:雷达和IMU坐标系

对于雷达和IMU坐标系不重合的设备,可以在Lidar_front_end.cpp中添加将雷达点云转换到IMU系的程序来适配。

前端LiDAR_front_end.cpp负责将雷达原始点云处理成pcl::PointCloudXYZINormal格式

主函数在r3live.cpp

Eigen::initParallel();//从多个线程调用Eigen时必须首先调用
R3LIVE * fast_lio_instance = new R3LIVE();//创建r3live类实例

初始化操作在R3LIVE的构造函数中:

  1. 读取参数
  2. 订阅对应话题
    • IMU数据 话题名从参数/IMU_topic读取 ->回调函数 R3LIVE::imu_cbk
      将IMU数据压入imu_buffer_lioimu_buffer_vio
    • 雷达前端处理之后的点云 话题名从参数/LiDAR_pointcloud_topic读取->回调函数R3LIVE::feat_points_cbk,每一帧数据压入lidar_buffer
    • 原始图像数据 话题名从参数/Image_topic读取 ->回调函数R3LIVE::image_callback
    • 压缩图像数据 话题名/Image_topic/compressed ->回调函数R3LIVE::image_comp_callback
  3. 开启LIO核心线程 service_LIO_update
    • 执行一次sync_packages获取一帧雷达点云及其对应的IMU数据 -> MeasureGroup

视觉部分

视觉部分全部放在r3live_vio.cpp
入口是图像话题回调函数image_callback
i m a g e _ c a l l b a c k → { s e r v i c e _ p r o c e s s _ i m a g e _ b u f e r p r o c e s s _ i m a g e → { s e r v i c e _ V I O _ u p d a t e s e r v i c e _ p u b _ r g b _ m a p s \rm image\_callback \to \begin{cases} \rm service\_process\_image\_bufer \\ \rm process\_image\to \end{cases} \begin{cases}{} \rm service\_VIO\_update\\ \rm service\_pub\_rgb\_maps \end{cases} image_callback{service_process_image_buferprocess_image{service_VIO_updateservice_pub_rgb_maps

#include<opencv2/core/eigen.hpp>
cv::eigen2cv(const Eigen::Matrix& src, cv::Mat& dst);
cv::cv2eigen(const cv::Mat& src, Eigen::Matrix& dst);
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
R3LIVE是一种激光-惯性-视觉结合的SLAM算法,被认为是非常经典的文章\[1\]。该算法使用了IMU、相机和激光雷达三个传感器,每个传感器都有不同的作用。R3LIVE的代码流程可以概括为以下几个部分。 首先是前言部分,其中介绍了R3LIVE算法的结构和各个传感器的作用\[1\]。 接下来是节点与话题的绘图部分,通过绘制节点和话题的图形,可以清晰地看到R3LIVE中的两个节点:/r3live_LiDAR_front_end和/r3live_mapping\[2\]。 然后是主函数部分,该部分在FAST-LIO2中已经详细介绍过,所以在R3LIVE中不再过多介绍\[3\]。 最后是重点部分,即VIO部分。在这部分中,R3LIVE算法进行了详细的操作,但由于篇幅限制,无法在这里进行详细介绍。建议参考相关文献或代码来深入了解R3LIVE的VIO部分\[3\]。 总之,R3LIVE是一种激光-惯性-视觉结合的SLAM算法,其代码包括前言部分、节点与话题的绘图部分、主函数部分和VIO部分。详细的代码解析可以参考相关文献或代码资源。 #### 引用[.reference_title] - *1* *2* [R3LIVE代码详解(一)](https://blog.csdn.net/lovely_yoshino/article/details/126572997)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [R3LIVE代码详解(三)](https://blog.csdn.net/lovely_yoshino/article/details/126676059)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Shilong Wang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值