[slam]docker-slam下的建图与定位

目录

1.实验目的:

2.实验设备:

3.各个传感器驱动使用步骤

4.实验原理

5.实验详细步骤、遇到的问题及解决方法

1.首先下载docker

2.下载.bag数据集和.tar数据压缩包

3.将.tar文件导入docker中(此步骤可能会较慢)

4.将镜像生成容器

5.进入容器

6.建图部分

1.下载gtsam库和geographiclib库

2.将liorf与liorf_localization两个文件夹放入workspace中src里面

3.生成PCD来定位

4.运行slam可视化

7.定位部分

1.设置话题名字

2.运行slam可视化

6.实验总结


1.实验目的:

1.实现slam视觉下的建图与定位

2.使我们了解如何熟练运用ros订阅与发布

2.实验设备:

智能车辆建图教学小车

3.各个传感器驱动使用步骤

1.雷达:

1)先启动容器,进入容器中

 docker start slam(启动容器)   docker exec -it slam /bin/bash(进入容器)

2)打开两个终端,一个启动数据集,另一个启动slam视觉可视化

启动数据集:

cd /root/bag

rosbag play all_2023-12-25-02-59-36.bag

若出现错误需要新开一个终端roscore一下,启动ros

启动slam视觉可视化:

cd /root/drive
source devel/setup.bash
roslaunch rslidar_sdk start.launch

若出现[rviz-3] process has died在新建终端输入(宿主机即可,不需要进去容器)

xhost +

若在弹出rviz中显示点云说明雷达驱动正常

2.组合导航

同理

cd /root/drive
source devel/setup.bash
roslaunch chcnav_driver chanav_node.launch

4.实验原理

基于Docker容器技术和多传感器融合技术,实现机器人的同时定位与地图构建。

首先,Docker容器技术为SLAM提供了运行环境,使得各种算法和程序能够在同一台计算机上以容器化的方式运行,方便管理和部署。其次,多传感器融合技术利用不同传感器的信息,通过数据融合算法处理,提高定位和地图构建的精度和鲁棒性。

在实验中,通常会使用激光雷达和IMU(Inertial Measurement Unit)等传感器,获取机器人周围的环境信息和自身姿态信息。然后,通过数据融合算法处理这些信息,得到机器人的位置和姿态估计。同时,利用机器人携带的相机等传感器拍摄图像,提取特征点并进行匹配,进一步验证和调整定位结果。最后,利用定位信息和传感器数据,通过地图构建算法生成环境地图。

5.实验详细步骤、遇到的问题及解决方法

1.首先下载docker

这里分享鱼香ros一键安装的docker代码

wget http:/
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值