R2live论文阅读笔记

R2live
GitHub - hku-mars/r2live: R2LIVE is a robust, real-time tightly-coupled multi-sensor fusion framework, which fuses the measurement from the LiDAR, inertial sensor, visual camera to achieve robust, accurate state estimation.
**摘要:**该篇论文提出鲁邦的、实时耦合的多传感器融合框架,融合了LIDAR、IMU、视觉相机的测量结果,从而实现了不错的状态估计。该框架由两部分组成。基于滤波器里程计和因子图优化。利用所有传感器的测量优势,对各种视觉故障、LADAR退化场景也也鲁棒性。

核心方法:
在这里插入图片描述

获得相机、IMU、LIDAR的数据,我们需要以IMU为载体坐标系。这是因为IMU的Hz更高。所以我们以imu速率离散了连续模型。就零xi作为第i次测量时的状态向量。
在这里插入图片描述

下一步用迭代状态卡尔曼滤波器来估计状态向量xi
在这里插入图片描述

对状态x(k+1)加一个先验,然后拿这个先验和激光雷达或相机的测量的结果融合,产生这个状态的MAP(最大后验估计值),然后不断迭代更新这个状态,
在LIDAR测量中,是从原始三维点提取平面特征点。(在LIDAR测量这块就不是很懂了)
在视觉测量中,是从未失真图像提取FAST Corner feature point Ck+1.并且用KLT光流跟踪当前滑动窗口中关键帧,这个窗口是能看到Ck+1。
后面结合先验分布、激光雷达测量的后验和视觉测量的后验,得到MAP.
还利用了因子图优化来优化图像关键帧滑动窗口内的相机姿态和视觉地标
在这里插入图片描述

心得体会:学到了用卡尔曼滤波器来估计一个运动状态,(另外还包括了先验和后验),感觉这卡尔曼滤波器和MAP这类思想以后可以估计一个物体的运动状态,还可以预测下一时刻的位姿。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

枫仙森

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值