本文首发于公众号:CNNer 。每日分享CVPR、ECCV等会议,关注深度学习、自动驾驶领域,我们期待你的加入。关注“CNNer”,选择加“星标”或“置顶”精选干货,当日达。
![cea2aeb51a5b39d151324bfd96f8443a.png](https://img-blog.csdnimg.cn/img_convert/cea2aeb51a5b39d151324bfd96f8443a.png)
备注:研究方向+地点+学校/公司+昵称,更快通过申请,长按加细分领域技术交流群,目前有细分领域:目标跟踪、SLAM、点云处理、深度学习。
论文地址:http://www.ipb.uni-bonn.de/wp-content/papercite-data/pdf/chen2019iros.pdf
代码:https://github.com/PRBonn/semantic_suma
来源:德国波恩大学
论文名称:SuMa++: Efficient LiDAR-based Semantic SLAM
原文作者:Xieyuanli Chen
可靠精确的定位和建图是许多自动驾驶系统的关键部分。另外,地图环境中的几何信息在智能导航系统中的实例分割扮演了重要角色。在实际场景中,由于物体运动的问题,导致这个任务是非常复杂的,因为运动可能导致建图错误和定位失败。本文对当前已有的一种基于表面的建图方法进行了扩展,将其扩展到3D激光数据,通过融合分割信息来提高建图的精度。通过全卷积神经网络可以有效的提取点云的分割信息,并且渲染到了激光点云的球状数据中。这种计算出的语义分割结果在整个扫描的逐点标签,允许我们建立一个语义丰富的标记的面元地图。分割后的结果可以让我们稳定的移除运动目标,并且提高了点云匹配之间的约束鲁棒性。本文的算法在KITTI的高速场景中进行了测试,数据中只有少量的静态物体,且存在大量的移动车辆物体,实验结果表明本文的算法与当前表现SOTA的纯几何信息的SLAM算法相比,更具有优势。
下面是论文具体框架结构以及实验结果:
![dc3145ba9efb3a8126af20628f5cc41e.png](https://img-blog.csdnimg.cn/img_convert/dc3145ba9efb3a8126af20628f5cc41e.png)
![81d924e0757604e990ef91d8174be665.png](https://img-blog.csdnimg.cn/img_convert/81d924e0757604e990ef91d8174be665.png)
![d6886579d3ce9ea2a12479625c84f7a4.png](https://img-blog.csdnimg.cn/img_convert/d6886579d3ce9ea2a12479625c84f7a4.png)
![a600e9a8727cefa7036dd157c4ec3621.png](https://img-blog.csdnimg.cn/img_convert/a600e9a8727cefa7036dd157c4ec3621.png)
![a91341a73e8c4df5c445abd39284dc09.png](https://img-blog.csdnimg.cn/img_convert/a91341a73e8c4df5c445abd39284dc09.png)
![9b327b9773ec5324608d87b465fa355d.png](https://img-blog.csdnimg.cn/img_convert/9b327b9773ec5324608d87b465fa355d.png)
![029073272f3401544e4b5671bd89ecd4.png](https://img-blog.csdnimg.cn/img_convert/029073272f3401544e4b5671bd89ecd4.png)
![23171b45d54a58a8238633e6ba173d05.png](https://img-blog.csdnimg.cn/img_convert/23171b45d54a58a8238633e6ba173d05.png)
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。