一种基于环视鸟瞰图和导航地图的特征匹配方法-用于视觉重定位-
在GPS信号容易受到多源误差影响(如GPS拒止)的城市环境中,鲁棒定位是实现自动驾驶(autonomous driving)的基础。
传统的定位方法依赖于由精确标注的路标组成的高精度(high-definition,HD)地图。
但是,制作HD地图耗时、费力。
鉴于这些问题,利用导航地图成为一种很有前景的低成本替代方案。
目前基于导航地图的定位方法已经可以实现高精度定位,但其复杂的匹配策略导致推理时间很长,无法满足实时性需求。
为此,我们提出了一种新的基于Transformer的神经网络重定位方法。
受图像匹配方法的启发,我们在导航地图(navigation maps)和视觉鸟瞰图特征(visual bird’s eye view features)之间,进行了从粗到精的神经网络特征匹配。
在nuScenes和Argoverse数据集上,我们的方法都明显优于OrienterNet,在单视图和环视图(surround-view images)输入设置上分别提高了近10%/20%的定位精度和30/16的帧率(FPS)。
总结,我们提出了一种用于自动驾驶的无高精地图(HD-map-free)定位方法,在具有挑战性的驾驶环境中可具备经济性、可靠性和可扩展性。
附赠自动驾驶最全的学习资料和量产经验:链接
标题、作者
论文链接
https://arxiv.org/abs/2407.08561