【论文笔记】Sensor Fused Three-dimensional Localization Using IMU, Camera and LiDAR

【论文笔记】Sensor Fused Three-dimensional Localization Using IMU, Camera and LiDAR

估计三维 (3D) 环境中移动平台的位置和方向 (pose) 在许多领域都具有重要意义,例如机器人和传感。为了执行这项任务,可以使用单个或多个传感器。多传感器融合已被用于提高估计的准确性并补偿单个传感器的缺陷。与该领域之前的工作使用具有 3D 定位能力的传感器来估计平台(例如无人驾驶飞行器或无人机)的完整姿态不同,在这项工作中,我们使用来自 2D 光检测和测距的数据( LiDAR) 传感器,它只能估计 2D 平面中的位姿。我们将其与来自相机和惯性传感器的数据在扩展卡尔曼滤波器中融合,表明尽管 2D LiDAR 的估计不完整,但总体估计的 3D 姿态可以得到改善。我们还将这种情况与将 2D LiDAR 替换为具有相似特性但具有完整 3D 姿态估计能力的 3D LiDAR 的情况进行了比较。
姿态估计是车辆控制、映射和同步定位和映射 (SLAM) 等应用程序中不可分离的部分。各种传感器通常用于估计机器人的姿势。惯性测量单元 (IMU)、相机和 LiDAR 是最流行的室内定位传感器 [1]。在这些传感器之间,激光雷达在 3D 姿态估计方面受到的关注较少。这是因为 2D LiDAR 无法提供完整的 3D 姿态估计,并且 3D LiDAR 体积庞大且价格昂贵。在室外定位中,全球定位系统 (GPS) 信号通常可用,并且由于可以使用 GPS 精确获取位置,因此它是与从 IMU 或航位推算获得的数据融合的常见选择 [2]。但是,在拒绝 GPS 的环境中,例如在建筑物内,应使用其他传感器来校正 IMU 估计值。解决此问题的常用方法是 IMU 相机融合 [3,4,5,6]。与之前仅使用可以输出完整 3D 姿态估计的传感器的工作不同,在本文中,我们将从 2D LiDAR 获得的姿态与来自 IMU 和相机的数据融合到扩展卡尔曼滤波器 (EKF) 中以估计位置和无人机(UAV)的方向,并证明它可以改善仅由 IMU 和相机估计的姿态。此外,我们将 2D LiDAR 替换为具有相似特性的 3D LiDAR,并将结果与​​之前的场景进行比较。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值