《HDMapNet:An Online HD Map Construction and Evaluation Framework》论文笔记

本文介绍了HDMapNet框架,该框架通过融合传感器数据,特别是利用相机和Lidar,进行在线高精地图的构建。重点在于局部信息的获取,通过编码器处理环视图像和Lidar数据,在BEV空间进行特征融合,预测车道实例。解码器则负责车道分割、车道实例信息获取和高精地图的向量化元素提取。实验结果显示了语义分割和实例分割的优秀性能。
摘要由CSDN通过智能技术生成

参考代码:HDMapNet

1. 概述

介绍:在这篇文章中提出一种生成向量化高精地图(verctorized HD map)的方案,通过如IMU、GPS、Lidar等传感器数据融合可以生成全局的高精度定位信息,对于局部的信息是通过相机和Lidar实现的,其中最为关键便是行车过程中的车道信息。对于局部信息的获取方法是这篇文章的重点,其通过编码器处理环视图像和Lidar数据,之后将其映射到bev空间并引入时序得到融合信息表达,之后用于预测车道实例。

下图展示的便是生成高清地图的工作流程,通过将全局信息获取定位结果和局部信息融合得到精细化高精地图:
在这里插入图片描述
这里如何使用 全局信息获取部分定位并不是关注点重点,局部信息获取才是这篇文章着力想探讨的东西。

2. 方法设计

在局部信息获取流程中输入环视相机数据或者附加Lidar数据,各自经过对应编码器之后在bev下实现特征融合 ,之后用于预测车道实例。
在这里插入图片描述

2.1 编码器

图像数据编码:
图像数据经过CNN网络编码之后得到语义特征图,但是由于单纯的2D图像是很难获取实际深度值的,直接使用相机内外参数(假设深度为1)会导致投影出现偏差,对此文章中采用的是一种多层全连接将图像坐标数据映射到相机坐标下:
F I i c [ h ] [ w ] = ϕ V i h w ( F I i p v [ 1 ] [ 1 ] , … , F I i p v [ H p v ] [ W p v ] ) F_{I_i}^c[h][w]=\phi_{V_i}^{hw}(F_{I_i}^{pv}[1][1],\dots,F_{I_i}^{pv}[H_{pv}][W_{pv}]) FIic[h][w]=ϕVihw(FIipv[1][1],,FIipv</

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值