(2021, icra) Visual Semantic Localization based on HD Map for Autonomous Vehicles in Urban Scenarios

该文提出了一种融合视觉语义信息和轻量级高精地图的定位方法,利用局部、全局和时序一致性建立地图元素与检测元素的关联策略。在因子图框架下实现视觉和里程计的紧耦合定位,确保在各种场景下的高精度。在0.2m地图误差和5像素检测误差下,位置精度达0.23m,yaw角精度0.063°。实测城市道路数据表明,算法能有效处理检测和地图错误,尽管非实时,但展示了良好的性能。
摘要由CSDN通过智能技术生成

一、创新点和主要贡献

  1. 提出了一个基于视觉语义信息和轻量级高精地图的定位方案,且地图元素高度信息不用特别精准;

  1. 结合局部一致性, 全局pattern一致性和时序一致性,提出了一个鲁棒的地图元素和检测元素的关联策略;

  1. 在因子图框架下(pose graph),实现了一种视觉语义特征和里程计紧耦合的定位方案;

二、精度和速度

2.1 典型场景仿真结果

场景模拟了一个十字路口: 道路两侧各有4个杆状物体, 在车辆前方有2个交通灯和2个标识牌;

  1. 在0.2m的高精地图误差和5像素的检测误差条件下, 能实现0.23m的位置精度和0.063°的yaw角朝向精度;

  1. feature距离ego-vehicle越远,对横向和yaw角的精度帮助越大;

  1. 在自车坐标系下, features之间的横向距离越远,对纵向的精度帮助越大;(why?

2.2 城市道路实际数据结果

数据是30km的城市路段,包含隧道,高架和城市峡谷等场景;

  1. 实测纵向误差0.43m, 横向误差0.12m, yaw角误差0.11°

  1. 文中提出的数据关联策略有效应对了检测中的漏检和误捡,以及地图中的漏标和误标

2.3 速度

作者在后续工作中特别说明了这个算法没有到实时(匹配过程比较复杂吧?)

三、实现方案

3.1 图片中语义特征提取

用yolo v3检测灯杆,标识牌和路面标识等

3.2 数据关联

step 1: 在初始位姿附近采样一系列位姿,并按照这些位姿把地图元素进行投影;

step2: 选取一个最好的初始位姿;

step3: 考虑匹配梳理,匹配相似度和局部结构相似度,形成单帧的最优匹配;

step4: 对单帧匹配结果做匹配(可以和step1~3并行)

step5: 多帧平滑(公式没看懂

3.3 位姿图优化

位姿图优化和重投影误差放在了一起

四、重要参考文献

(2019, icra) Localization with sliding window factor graphs on third-party maps for automated driving

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值