由于指导老师的要求,最近要看一下深度学习聚类的算法,当然,都是基于velodyne激光雷达来做的,如果要改用其他雷达,那就需要自己进行适配了。
废话不多说!
一:cmake环境下的编译运行
1.项目地址
项目链接:depth_clustering
我的安装环境:ubuntu 1804 ,ros-melodic
以及:sudo apt install libopencv-dev libqglviewer-dev-qt5 freeglut3-dev qtbase5-dev
2.安装
git clone https://github.com/PRBonn/depth_clustering src/depth_clustering
下载下来的包叫depth_clustering_master,讲道理这个不影响什么,但是博主略微有些强迫症,就改名为depth_clustering。那么,接下来,
cd depth_clustering
mkdir build
cd build
cmake ..
make -j4
ctest -VV # run unit tests, optional
编译过就万事大吉了!
3.下载测试数据
mkdir data/; wget http://www.mrt.kit.edu/z/publ/download/velodyneslam/data/scenario1.zip -O data/moosmann.zip; unzip data/moosmann.zip -d data/; rm data/moosmann.zip
下载下来的数据是.png格式的,都是深度图,总共也就110M左右。
4.运行测试看效果
cd depth_clustering/build/devel/lib/depth_clustering/
./qt_gui_app #运行可视化界面,这个就很牛批了
效果如图所示:
点击,open_folder,选择你刚才下载的数据目录,然后点击play,运行起来如下图所示结果:
这只是demo,它带有ros接口,不过作为一个ros包我并未将它编译过,所以先看一下非ros环境下的效果!
二:ros环境下的编译运行
1.编译如上,所以基本上面编译过,就可以用了。
2.启动自己的bag(下面跑的包是我自己的bag,在停车场用16线velodyne 录的)
rosbag play -l --clock parking.bag --topics /velodyne_points
cd catkin_depth
source devel/setup.bash
rosrun depth_clustering show_objects_node --num_beams 16 --angle 10
4.没有rospublisher节点,出来的图像直接是用qt做的,如下:
原文中用的是64线雷达,而我用的是16线,所以我觉得这个影响还是不小的,效果也不尽如人意!