imu相机标定_浙大开源LiDARIMU传感器联合标定!

本文介绍了浙江大学提出的无标靶LiDAR-IMU系统标定方法LI-Calib,利用连续时间B-Spline策略处理高频率数据,实现3D LIDAR与IMU之间的六自由度外参标定。该方法在虚拟仿真和实际环境中得到验证,展示出高精度和可重复性。
摘要由CSDN通过智能技术生成

点击上方“计算机视觉life”,选择“星标”

快速获得最新干货

论文地址: https://arxiv.org/pdf/2007.14759.pdf

代码: https://github.com/APRIL-ZJU/lidar_IMU_calib

来源: 浙江大学

论文名称:Targetless Calibration of LiDAR-IMU System Based on Continuous-time Batch Estimation

原文作者:Jiajun Lv

内容提要

传感器标定是多传感器融合系统的基础模块。本文提出了一个精确的和可重复的LIDAR-IMU标定方法——LI-Calib,用来标定3D LIDAR和惯性测量单元(IMU)之间六自由度的外参。基于LIDAR和IMU高频率数据捕获的特点,LI-Calib采用了一种基于连续时间B-Spline的策略,相比基于离散时间的方法,该策略更适于融合高频率和同步测量。此外,LI-Calib将空间分解为单元和用于数据关联的平面段,这使得标定问题在通常无标靶的环境中有了很好的约束。同时在虚拟仿真和真实环境中验证了本文提出的标定方法的有效性。结果表明,本文提出的方法在人为场景下显示出高频率和较好的可重复性。

主要框架及实验结果

3ab1b3e66a5ad25d3c0a0537f9f299db.png

相机和IMU联合标定是一种常用的技术,用于将相机和惯性测量单元(IMU)的数据进行融合,以实现精确的定位和姿态估计。在这个过程中,我们需要确定相机和IMU之间的外部参数(如旋转矩阵和平移向量),以及IMU的内部参数(如加速度计和陀螺仪的偏置)。以下是一个常见的相机和IMU联合标定的步骤: 1. 数据采集:在进行标定之前,我们需要同时记录相机和IMU的数据。这可以通过将相机和IMU固定在一个刚性平台上,并进行一系列运动来实现。 2. 图像特征提取:从相机捕获的图像中提取特征点,例如角点或ORB特征点。这些特征点将用于之后的相机标定。 3. 相机标定:使用采集到的图像数据,对相机进行标定,以获取内部参数(例如焦距、主点位置等)和外部参数(例如旋转矩阵和平移向量)。这可以使用常见的相机标定算法,如张正友标定法。 4. IMU预处理:对采集到的IMU数据进行预处理,包括去除噪声、对齐时间戳等操作。这有助于提高后续的联合标定精度。 5. 特征匹配:将IMU数据与图像特征进行匹配,以建立二者之间的对应关系。这可以通过使用IMU数据的角速度和线性加速度与特征点的运动进行配准。 6. 联合优化:使用非线性优化方法,如扩展卡尔曼滤波(EKF)或优化器,将相机和IMU之间的外部参数进行联合优化。这可以通过最小化重投影误差来实现,即将图像特征投影到3D空间,并与IMU数据进行对比。 通过以上步骤,我们可以获得相机和IMU之间的精确外部参数,从而实现精确的相机姿态估计和定位。这对于许多应用领域,如增强现实、机器人导航等都是非常重要的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值