Ubuntu16.04运行VoxelNetRos

来源:https://www.icode9.com/content-3-861747.html
标签:Ubuntu16.04 插件 rviz pip voxelnet install VoxelNetRos 运行

原文:无人驾驶汽车系统入门(二十八)——基于VoxelNet的激光雷达点云车辆检测及ROS实现
  1. 系统环境

    Ubuntu16.04
    ROS-Kinetic
    Python 3.5

  2. 安装
    2.1 安装rviz插件

因为程序中使用了(BoundingBox, BoundingBoxArray)这两个msgs,所以应使用以下命令安装rviz插件:

sudo apt-get install ros-kinetic-jsk-rviz-plugins

2.2 创建voxelnet虚拟环境

conda create -n voxelnet python=3.5

激活虚拟环境

source activate voxelnet

注意:下面的操作都在虚拟环境中执行
2.3 安装依赖

pip install Tensorflow==1.4
pip install OpenCV-python
pip install shapely
conda install numba
pip install easydict
pip install pyyaml
pip install rospkg
pip install matplotlib

2.4 下载VoxelNet

voxelnet源程序地址:https://github.com/qianguih/voxelnet
下载完毕后解压,并进入该目录:

cd voxelnet

2.5 编译Cython模块

python3 setup.py build_ext --inplace

编译完成后,会在./utils目录下生成一个box_overlaps.cpython-35m-x86_64-linux-gnu.so文件,后面运行VoxelNetRos程序时会用到该文件。
2.6 下载VoxelNetRos

VoxelNetRos源程序地址:https://github.com/AbangLZU/VoxelNetRos
下载完毕后解压,重命名为VoxelNetRos。
使用上述编译生成的box_overlaps.cpython-35m-x86_64-linux-gnu.so文件替换/VoxelNetRos/voxelnet/utils/下相应的.so文件。
2.7 准备数据

数据地址: https://pan.baidu.com/s/1kxZxrjGHDmTt-9QRMd_kOA
下载并解压,拷贝至/VoxelNetRos/data/下,使得该路径下的文件结构为:

data
----lidar_2d
--------0000…1.npy
--------0000…2.npy
--------…

2.8 运行程序

打开一个新终端输入:

roscore

创建工作空间:

mkdir -p VoxelNetRos_ws/src

将上述VoxelNetRos包移动至VoxelNetRos_ws/src目录下,编译运行:

cd VoxelNetRos_ws
catkin_make
source devel/setup.bash
roscd voxelnet_ros/script/
python3 voxelnet_ros.py & python3 pub_kitti_point_cloud.py

再打开一个新终端输入rviz命令启动rviz插件,rviz插件启动后将Global Options中的固定坐标(Fixed Frame)选项设置为velodyne,使用add添加类型为PointCloud2,话题(Topic)设置为(/velodyne_points_modified),如果选择Topic为velodyne_points则可以看到原始点云信息。使用add添加类型为BoundingBox,话题(Topic)设置为(/voxelnet_bbox),使用add添加类型为BoundingBoxArray,话题(Topic)设置为(/voxelnet_arr_bbox)。
结果如下图所示:
在这里插入图片描述

参考:

    https://blog.csdn.net/r1141207831/article/details/102943740?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.control
    https://blog.csdn.net/r1141207831/article/details/96423897
    https://github.com/AbangLZU/VoxelNetRos/issues/1
RGBD SLAM是一种基于深度相机和彩色相机的同时定位和地图构建技术,它可以用来实现机器人、自动驾驶和增强现实等应用。下面是在Ubuntu 16.04运行RGBD SLAM的基本步骤: 1. 安装RGBD SLAM所需的依赖库。在终端中输入以下命令: ``` sudo apt-get update sudo apt-get install build-essential cmake libboost-all-dev libeigen3-dev libopencv-dev libpcl-dev libvtk6-dev libqt4-dev libvtk6-qt-dev freeglut3-dev libxi-dev libxmu-dev libusb-1.0-0-dev ``` 2. 下载RGBD SLAM源代码。在终端中进入到你想要存放RGBD SLAM的文件夹中,然后输入以下命令: ``` git clone https://github.com/felixendres/rgbdslam_v2.git ``` 3. 编译RGBD SLAM。在终端中进入到RGBD SLAM源代码所在的文件夹中,然后输入以下命令: ``` mkdir build cd build cmake .. make -j4 ``` 4. 运行RGBD SLAM。在终端中输入以下命令: ``` ./rgbdslam ``` 5. 添加RGBD相机设备(如果需要)。如果你使用的是Kinect或者其他深度相机,那么你需要在RGBD SLAM中添加相机设备。在RGBD SLAM的界面中,点击“设备”按钮,然后选择相机设备。 6. 开始运行RGBD SLAM。在RGBD SLAM的界面中,点击“开始”按钮,然后开始移动相机进行定位和地图构建。 注意:RGBD SLAM需要一定的计算资源和内存,因此建议在高性能的计算机上运行。同时,RGBD SLAM的运行结果也受到环境光线和深度相机质量等因素的影响,因此需要在适当的环境下进行测试和调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值