ROS1下相机和激光雷达标定显示(可用代码)

可能有用的源代码:
1年前的代码,缺少数据(bag数据),
https://github.com/zcbmlijygrdwa/camera_lidar_fusion
https://github.com/methylDragon/ros-sensor-fusion-tutorial
https://github.com/SJSU-AD/FusionAD
阿波罗的代码,可能比较难
https://github.com/cedricxie/apollo_perception_ros

ROS_Raw_Kitti_Player
code

catkin clean
catkin_make
source devel/setup.bash

roslaunch kitti_ros kitti_ros_node.launch表示数据的接收与显示
kitti_ros_node表示点的发送

kitti_ros
code

source devel/setup.bash
roslaunch kitti_ros demo.launch kitti_data_path:=/home/lufeng/Documents/Data/Kitti/2011_09_26/2011_09_26_drive_0005_sync

缺少安装文件安装:

sudo apt install ros-kinetic-jsk-recognition
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
结合多传感设备以实现高级的感知能力是自动驾驶汽车导航的关键要求。传感器融合用于获取有关周围环境的丰富信息。摄像头和激光雷达传感器的融合可获取精确的范围信息,该信息可以投影到可视图像数据上。这样可以对场景有一个高层次的认识,可以用来启用基于上下文的算法,例如避免碰撞更好的导航。组合这些传感器时的主要挑战是将数据对齐到一个公共域中。由于照相机的内部校准中的误差,照相机激光雷达之间的外部校准以及平台运动导致的误差,因此这可能很困难。在本文中,我们研究了为激光雷达传感器提供运动校正所需的算法。由于不可能完全消除由于激光雷达的测量值投影到同一里程计框架中而导致的误差,因此,在融合两个不同的传感器时,必须考虑该投影的不确定性。这项工作提出了一个新的框架,用于预测投影到移动平台图像帧(2D)中的激光雷达测量值(3D)的不确定性。所提出的方法将运动校正的不确定性与外部和内部校准中的误差所导致的不确定性相融合。通过合并投影误差的主要成分,可以更好地表示估计过程的不确定性。我们的运动校正算法和提出的扩展不确定性模型的实验结果通过在电动汽车上收集的真实数据进行了演示,该电动汽车配备了可覆盖180度视野的广角摄像头和16线扫描激光雷达

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值