RoadMap: A Light-Weight Semantic Map for Visual Localization towards Autonomous Driving 文章阅读

RoadMap: A Light-Weight Semantic Map for Visual Localization towards Autonomous Driving*

摘要

精确的定位是自动驾驶任务的关键。如今,我们已经看到许多传感器丰富的车辆(如机器人出租车)在街上自动驾驶,这些车辆依靠高精度传感器(如激光雷达和RTK GPS)和高精度地图。但是,低成本的汽车无法负担传感器和地图的高昂费用。如何降低成本?**传感器丰富的车辆如何使低成本汽车受益?在本文中,我们提出了一种轻量级的定位解决方案,它依赖于低成本的摄像机和紧凑的视觉语义地图。**地图很容易由传感器丰富的车辆以一种众包的方式制作和更新。具体来说,该地图由几个语义元素组成,如车道线、人行横道、地面标志和路面上的停车线。我们介绍了车载地图、云维护和用户端定位的整体框架。地图数据在车辆上收集和预处理。然后,将众包数据上传到云服务器。将多辆车的海量数据融合到云上,及时更新语义地图。最后,语义地图被压缩并分发到生产车辆,后者使用该地图进行定位。我们在实际实验中验证了该算法的性能,并与其他算法进行了比较。语义地图的平均大小为36kb/km。我们强调,这个框架是一个可靠和实用的自动驾驶定位解决方案。

现有技术存在的问题:

  1. 量产车承担不起激光雷达和高精地图的高成本
  2. 点云地图消耗大量内存,无法大规模生产
  3. 制作高精地图需要大量人力,难保证高精地图的更新

解决方法:

由高成本传感器丰富的车辆通过众包的方式制作一个紧凑的视觉语义地图。低成本的车辆通过配备的摄像头与视觉语义地图进行定位。

系统综述

系统结构
系统由三部分组成:
1.高成本车辆建图:车辆配备了前置摄像头、RTK-GPS和基本导航传感器(IMU和车轮编码器)。这些车辆每天收集大量的实时数据。通过语义分割网络从前视图像中提取语义特征。然后根据优化后的车辆姿态,将语义特征投影到世界坐标系中。车辆建立一个局部语义地图,并将该地图上传到云地图服务器。
2.云端建图:云服务器从多个车辆收集局部地图。局部地图合并为全局地图。然后通过轮廓提取对全局地图进行压缩。最后,将压缩的语义地图发布给最终用户。
3.低成本车辆定位:车辆配备低成本传感器,如摄像机、低精度GPS、IMU和车轮编码器。用户从云服务器下载语义地图后解码。与高成本车辆建图部分一样,通过语义分割从前视图像中提取语义特征。通过语义特征匹配对地图进行定位。

算法细述:

高成本车辆建图

  1. 图像分割

    使用基于CNN的语义分割算法进行场景分割。提取地面、车道线、停车线和道路标记类别。

  2. 逆透视变换

    将分割后的语义像素在车辆坐标系下从图像平面反投影到地平面。由于透视噪声的存在(越远的场景有着越大的误差),只选择靠近

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值