LIDAR-MOS环境配置与使用(CUDA11)

1.环境配置

LIDAR-MOS是一个用于分割激光雷达动态点的网络(Moving Object Segmentation-MOS)。

主要是使用基于projection的rangeimage方法将雷达点云投影至二维平面并进行分割,再通过residual image进行动态点云分割。

本文配置salsanext环境,环境为CUDA11,过程参考下篇链接:Lidar-MOS 安装与使用_salsanext_敢敢のwings的博客-CSDN博客

首先创建环境并激活,本篇使用SalsaNext为baseline。

conda create --n lidar-mos python=3.7
conda activate lidar-mos

之后安装pytorch1.7 (建议这样安装,否则会报错undefined symbol: free_gemm_select, version libcublasLt.so.11),其余torch版本未尝试

pip install torch==1.7.0+cu110 torchvision==0.8.0 torchaudio==0.7.0 -f https://download.pytorch.org/whl/torch_stable.html

随后按照requirements.txt进行安装,选择tensorflow 2.5.0版本,否则会因为cuda版本报错如下:

Could not load dynamic library 'libcusolver.so.10'; dlerror: libcusolver.so.10: cannot open shared object file: No such file or directory; LD_LIBRARY_PATH:/usr/local/cuda-11.6
absl-py==0.15.0
astor==0.8.0
cycler==0.10.0
grpcio==1.34.0
h5py==3.1.0
kiwisolver==1.1.0
matplotlib==2.2.3
mock==3.0.5
numpy==1.19.2
opencv-contrib-python==4.1.0.25
opencv-python==4.1.0.25
pillow==6.1.0
protobuf==3.10.0
pyparsing==2.4.2
python-dateutil==2.8.0
pytz==2019.2
pyyaml==5.1.1
scipy==1.4.1
tensorflow==2.5.0  #为了适配cuda11,如果报冲突更换2.4.0或调整其他冲突版本
termcolor==1.1.0
#torch==1.7.0+cu110
#torchaudio==0.7.0
#torchvision==0.8.0
vispy==0.12.1
PyQt5
pyqt5-tools 
tqdm

#Python3.8的环境如下 OpenCV和matplotlib、pillow版本要更改
absl-py==0.15.0
astor==0.8.0
cycler==0.10.0
grpcio==1.34.0
h5py==3.1.0
kiwisolver==1.1.0
#matplotlib==3.4.3
mock==3.0.5
numpy==1.19.2
opencv-contrib-python==4.1.2.30
opencv-python==4.1.2.30
pillow==6.2.0
protobuf==3.10.0
pyparsing==2.4.2
python-dateutil==2.8.0
pytz==2019.2
pyyaml==5.1.1
scipy==1.4.1
tensorflow==2.5.0  #为了适配cuda11,如果报冲突更换2.4.0或调整其他冲突版本
termcolor==1.1.0
#torch==1.7.0+cu110
#torchaudio==0.7.0
#torchvision==0.8.0
vispy==0.12.1
PyQt5
pyqt5-tools 
tqdm

2.训练数据准备(生成residual_image)

  python3 utils/gen_residual_images.py

此处需要调整config/data_preparing.yaml,根据路径依次调整不同序列如下图

 依次运行,将00 01 02 03 04 05 06 07 09 10residual_image准备好。

完成后每个序列文件夹应如下排列

 3.训练

cd mos_SalsaNext/train/tasks/semantic
./train.sh -d path/to/kitti/dataset -a salsanext_mos.yml -l path/to/log -c 0  

-d后 填写数据集路径(路径写至sequence上一层(包含sequence,但不进入sequence))

-a后 salsanext_mos.yml 可以调整batch_size等设置

-l后 模型输出地址

-c后 选择显卡

注意是train.sh 而不是进入task中找.py。

随后,训练开始(自己笔记本上测试环境配置,速度极慢)。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
RoboSense Lidar-16是一款高性能的16线激光雷达,适用于自动驾驶和环境感知应用。以下是使用该产品的手册。 1. 硬件介绍:首先,了解硬件的基本信息,包括尺寸、重量、安装方式等。确保正确操作和安装。 2. 软件安装:用户需要下载并安装相应的软件程序,以便与激光雷达进行数据交互和配置。进入软件后,可以根据需要调整雷达的灵敏度、扫描范围和数据输出等参数。 3. 连接设置:接下来,将激光雷达与计算机或其他设备进行连接。使用所提供的连接线将雷达连接到计算机的USB或其他接口上。 4. 数据采集:在软件中选择相应的扫描模式和数据保存路径,然后开始进行数据采集。用户可以通过软件界面实时查看雷达扫描到的环境图像,并将其保存为点云数据。 5. 数据处理:采集到的点云数据可以通过相关软件进行处理。用户可以将其用于建立地图、环境感知、物体检测等应用。 6. 故障排除:在操作过程中,如果遇到问题或错误消息,用户可以参考手册中的故障排除指南,以解决常见问题。 7. 安全注意事项:为了确保安全使用,用户需要注意雷达的工作环境和操作要求。避免过度振动、水浸、高温等情况,以免对雷达造成损坏。 总之,RoboSense Lidar-16 16线激光雷达使用手册提供了有关该产品的详细说明,从硬件介绍到软件安装、数据采集和处理,以及故障排除等方面。正确操作和使用该产品,可以有效提高自动驾驶和环境感知的性能。
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值