【论文笔记】Any Way You Look at It: Semantic Crossview Localization and Mapping With LiDAR
~~~ ~~~~ 目前,GPS 是目前最流行的全球定位方法。但是,它并不总是在所有环境中都可靠或准确。 SLAM 方法支持局部状态估计,但没有提供将局部地图注册到全局地图的方法,这对于机器人间协作或人类交互很重要。在这项工作中,我们提出了一种实时方法,利用语义来全局定位机器人,仅使用以自我为中心的 3D 语义标记 LiDAR 和 IMU,以及从卫星或空中机器人获得的自上而下的 RGB 图像。此外,当它运行时,我们的方法会构建一个全局注册的环境语义图。我们在 KITTI 以及我们自己的具有挑战性的数据集上验证了我们的方法,并显示出优于 10 m 的精度、高度的鲁棒性以及在最初未知的情况下动态估计自上而下地图比例的能力。
方法
~~~ ~~~~ 我们的方法由两个主要组件组成:基于 ICP 的 LiDAR SLAM 系统——全景 SLAM 联合 [32](UPSLAM)——和基于粒子滤波器的语义定位器,如图 2 所示。这里我们详细介绍了两者的目的和实现这些系统中。
我们在这项工作中的贡献如下:
1) 我们提出了一个实时跨视图定位和映射框架,使用语义点云定位到一个高架地图。如果航空地图未知但有界,我们的方法也能够估计它的比例。
2) 我们使用 SemanticKITTI [17] 以及我们自己在包括农村和城市环境在内的各种位置的数据集来验证我们提出的方法。另外使用推断的、嘈杂的、真实的分割数据执行验证。
3) 我们发布数据集和本地化代码,以便更广泛的研究社区在该领域进一步开展工作。
我们的框架只需要单个卫星或环境鸟瞰图,使其适用于更多应用。
https://github.com/iandouglas96/cross_view_slam
定位
~~~ ~~~~ </