一、创新点和主要贡献
提出了一个基于视觉语义信息和轻量级高精地图的定位方案,且地图元素高度信息不用特别精准;
结合局部一致性, 全局pattern一致性和时序一致性,提出了一个鲁棒的地图元素和检测元素的关联策略;
在因子图框架下(pose graph),实现了一种视觉语义特征和里程计紧耦合的定位方案;
二、精度和速度
2.1 典型场景仿真结果
场景模拟了一个十字路口: 道路两侧各有4个杆状物体, 在车辆前方有2个交通灯和2个标识牌;
在0.2m的高精地图误差和5像素的检测误差条件下, 能实现0.23m的位置精度和0.063°的yaw角朝向精度;
feature距离ego-vehicle越远,对横向和yaw角的精度帮助越大;
在自车坐标系下, features之间的横向距离越远,对纵向的精度帮助越大;(why?)
2.2 城市道路实际数据结果
数据是30km的城市路段,包含隧道,高架和城市峡谷等场景;
实测纵向误差0.43m, 横向误差0.12m, yaw角误差0.11°
文中提出的数据关联策略有效应对了检测中的漏检和误捡,以及地图中的漏标和误标
2.3 速度
作者在后续工作中特别说明了这个算法没有到实时(匹配过程比较复杂吧?)
三、实现方案
3.1 图片中语义特征提取
用yolo v3检测灯杆,标识牌和路面标识等
3.2 数据关联
step 1: 在初始位姿附近采样一系列位姿,并按照这些位姿把地图元素进行投影;
step2: 选取一个最好的初始位姿;
step3: 考虑匹配梳理,匹配相似度和局部结构相似度,形成单帧的最优匹配;
step4: 对单帧匹配结果做匹配(可以和step1~3并行)
step5: 多帧平滑(公式没看懂)
3.3 位姿图优化
位姿图优化和重投影误差放在了一起
四、重要参考文献
(2019, icra) Localization with sliding window factor graphs on third-party maps for automated driving