R2live
GitHub - hku-mars/r2live: R2LIVE is a robust, real-time tightly-coupled multi-sensor fusion framework, which fuses the measurement from the LiDAR, inertial sensor, visual camera to achieve robust, accurate state estimation.
**摘要:**该篇论文提出鲁邦的、实时耦合的多传感器融合框架,融合了LIDAR、IMU、视觉相机的测量结果,从而实现了不错的状态估计。该框架由两部分组成。基于滤波器里程计和因子图优化。利用所有传感器的测量优势,对各种视觉故障、LADAR退化场景也也鲁棒性。
核心方法:
获得相机、IMU、LIDAR的数据,我们需要以IMU为载体坐标系。这是因为IMU的Hz更高。所以我们以imu速率离散了连续模型。就零xi作为第i次测量时的状态向量。
下一步用迭代状态卡尔曼滤波器来估计状态向量xi
对状态x(k+1)加一个先验,然后拿这个先验和激光雷达或相机的测量的结果融合,产生这个状态的MAP(最大后验估计值),然后不断迭代更新这个状态,
在LIDAR测量中,是从原始三维点提取平面特征点。(在LIDAR测量这块就不是很懂了)
在视觉测量中,是从未失真图像提取FAST Corner feature point Ck+1.并且用KLT光流跟踪当前滑动窗口中关键帧,这个窗口是能看到Ck+1。
后面结合先验分布、激光雷达测量的后验和视觉测量的后验,得到MAP.
还利用了因子图优化来优化图像关键帧滑动窗口内的相机姿态和视觉地标
心得体会:学到了用卡尔曼滤波器来估计一个运动状态,(另外还包括了先验和后验),感觉这卡尔曼滤波器和MAP这类思想以后可以估计一个物体的运动状态,还可以预测下一时刻的位姿。