HD地图生成大盘点 | 深度解析特斯拉、地平线、百度等方案~

作者 |  bearbee 编辑 | 汽车人

原文链接:https://zhuanlan.zhihu.com/p/600087910

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心【高精地图】技术交流群

本文只做学术分享,如有侵权,联系删文

背景

目前学术界和工业界(尤其自动驾驶公司)均开始研究HD地图生成,也有一些公开的学术数据集以及非常多的学术工作,此外各家自动驾驶公司也在AIDAY上公开分享技术方案。从这些公开信息来看,也观察到了一些行业趋势,例如在线建图、图像BEV感知、点图融合以及车道线矢量拓扑建模等。本文将对相关的学术工作和自动驾驶公司的技术方案进行解读,以及谈谈个人的一些思考。

学术数据集

9e5dbab7667d3083745cee9baf3fff51.png
学术数据集对比

目前含HD地图的学术数据集包括:nuScenes【1】以及Argoverse2【2】。着重介绍下Argoverse2数据集,该数据集包含信息非常丰富:

  • 包括车道线、道路边界、人行横道、停止线等静态地图要素,其中几何均用3D坐标表示,并且同时包含了实物车道线和虚拟车道线;

  • 提供了密集的地面高度图(30cm),通过地面高度可以仅保留地面的点云,便于处理地面上的地图要素;

06c2306ed2083109c2f4fc3a09fec7e6.png
Argoverse2的HD地图

学术工作

该领域目前是自动驾驶公司的关注重点,因此相关学术工作基本都来自高校和车企合作,目前已经公开的论文,包括理想、地平线和毫末智行等车企。

而这些学术工作的技术方案整体可以概括为两部分:(1)BEV特征生成(2)地图要素建模。

BEV特征生成

在BEV空间进行在线建图,已经是目前学术界和业界的统一认识,其优势主要包括:

  • 减少车辆俯仰颠簸导致的内外八字抖动,适合车道线这种同时在道路中间以及两边存在的物体;

  • 远近检测结果分布均匀,适合车道线这种细长物体;

  • 便于多相机和时序融合,适合车道线这种可能在单帧遮挡看不见或单视角相机下拍摄不全的物体;

而在如何生成BEV特征上,不同论文的方法有些许区别。

HDMapNet【3】(来自清华和理想),采用了点图融合方式生成BEV特征,其中点云分支使用PointPillar【4】+PointNet【5】方式提取特征,图像分支则使用MLP方式实现PV2BEV转换,即将PV空间到BEV空间的变换看作变换矩阵参数,并通过MLP去学习(拟合)该参数。

b4167d59a854340fe1b3620fb13ba4c8.png
HDMapNet架构图

其中环视图像经过PV2BEV转换,实现了不同视角相机的图像特征融合。

11ff5c17d05723a264296cf1da100531.png
HDMapNet的环视相机特征融合

VectorMapNet【6】是HDMapNet的后续工作(来自清华和理想),同样采用了点图融合方式生成BEV特征,区别在于对图像分支采用IPM+高度插值方式实现PV2BEV转换。IPM是传统的PV2BEV转换方法,但需要满足地面高度平坦的假设。现实中,该假设通常较难满足,因此该工作假设了4个不同地面高度下(-1m,0m,1m,2m)的BEV空间,分别将图像特征经过IPM投影到这些BEV空间上,然后将这些特征concatenate起来得到最终的BEV特征。

46edffa9a0694d482771b3ec67603b40.png
VectorMapNet架构图

MapTR【7】(来自地平线)则是只采用了图像分支生成BEV特征,利用他们之前提出的GKT【8】实现PV2BEV转换。对于BEV Query,先通过相机内外参确定在图像的先验位置,并且提取附近的Kh×Kw核区域特征,然后和BEV Query做Cross-Attention得到BEV特征。

99a78341bc2d439e6995481167311ab6.png
GKT架构图

SuperFusion【9】(来自毫末智行)提出了长距离的车道拓扑生成方案,并且相应地采用多层级的点云和图像特征融合来生成BEV特征(类似CaDDN【14】将深度图分布和图像特征外积得到视椎体特征,再通过voxel pooling方式生成BEV特征)。其中点云分支提取特征方式和HDMapNet一致,而图像分支则基于深度估计实现PV2BEV转换。

6c6f097c7ded29b6c074636efec20ffb.png
SuperFusion架构图

其多层级的点图特征融合,包括data-level,feature-level以及bev-level:

  • Data-level特征融合:将点云投影到图像平面得到sparse深度图,然后通过深度补全得到dense深度图,再将sparse深度图和原图concatenate,并用dense深度图进行监督训练;

  • Feature-level特征融合:点云特征包含距离近,而图像特征包含距离远,提出了一种图像引导的点云BEV特征生成方式,即将FV图像特征作为K和V,将点云的BEV特征作为Q去和图像特征做cross-attention得到新的BEV特征,并经过一系列卷积操作得到最终的点云BEV特征;

d976e922535e24b6879e0ba3c3b0b91c.png
SuperFusion的Feature-level特征融合
  • BEV-level特征融合:由于深度估计误差和相机内外参误差,直接concatenate图像和点云的BEV特征会存在特征不对齐问题。提出了一种BEV对齐方法,即将图像和点云BEV特征先concat后学习flow field,然后将该flow field用于图像BEV特征的warp(根据每个点的flow field进行双线性插值),从而生成对齐后的图像BEV特征;

d176ceb8ecf91da22792f4013efdfc1d.png
SuperFusion的BEV-level特征融合

地图要素建模

关于地图要素的建模方式,目前学术界趋势是由像素到矢量点的逐渐转变,主要考虑是有序矢量点集可以统一表达地图要素以及拓扑连接关系。

HDMapNet采用像素方式建模车道线,引入语义分割、实例Embedding以及方向预测head分别学习车道线的语义像素位置、实例信息以及方向,并通过复杂的后处理(先采用DBSCAN对实例Embedding进行聚类,再采用NMS去除重复实例,最后通过预测的方向迭代地连接pixel),从而实现最终的车道线矢量化表达。

283c80438ac3f3b374ef7e8ab71fa584.png
HDMapNet架构图

VectorMapNet采用矢量点方式建模车道线,并拆解成Element检测阶段和Polyline生成阶段。

8f08671d93935e3e06a55ab130e3874b.png
VectorMapNet架构图

Element检测阶段的目标是检测并分类全部的Map Element,采用了DETR【11】这种set prediction方式,即引入可学习的Element Query学习Map Element的关键点位置和类别。作者尝试了多种定义关键点的方式,最终Bounding Box方式最优。

d0b3b51536d96ca57149117922510194.png
关键点表示方式

Polyline生成阶段的目标是基于第一阶段输出的Map Element的类别和关键点,进一步生成Map Element的完整几何形状。将Polyline Generator建模成条件联合概率分布,并转换成一系列的顶点坐标的条件分布乘积,如下:

213a625c951a555898bea36e8e8968cb.png
Polyline Generator建模

进而使用自回归网络对该分布进行建模,即在每个步骤都会预测下一个顶点坐标的分布参数,并预测End of Sequence token (EOS) 来终止序列生成。整个网络结构采用普通的Transformer结构,每根线的关键点坐标和类标签被token化,并作为Transformer解码器的query输入,然后将一系列顶点token迭代地输入到Transformer解码器中,并和BEV特征做cross-attention,从而解码出线的多个顶点。

MapTR同样采用矢量点方式建模车道线,提出了等效排列建模方式来消除矢量点连接关系的歧义问题,并且相应地设计了Instance Query和Point Query进行分层二分图匹配,用于灵活地编码结构化的地图信息,最终实现端到端车道线拓扑生成。

5df927d835593f7e03fae44a7cc9d85e.png
MapTR架构图

等效排列建模就是将地图要素的所有可能点集排列方式作为一组,模型在学习过程中可以任意匹配其中一种排列真值,从而避免了固定排列的点集强加给模型监督会导致和其他等效排列相矛盾,最终阻碍模型学习的问题。

a5952afcac984602a83319c460419e04.png
等效排列建模

分层二分图匹配则同样借鉴了DETR这种set prediction方式,同时引入了Instance Query预测地图要素实例,以及Point Query预测矢量点,因此匹配过程也包括了Instance-level匹配和Point-level匹配。匹配代价中,位置匹配代价是关键,采用了Point2Point方式,即先找到最佳的点到点匹配,并将所有点对的Manhattan距离相加,作为两个点集的位置匹配代价,该代价同时用在Instance-level和Point-level匹配上。此外,还引入了Cosine相似度来计算Edge Direction损失,用于学习矢量点的连接关系。

637c4e6fde64b8f8d6b80cc88d9250f2.png
Edge Direction损失

SuperFusion则和HDMapNet一样,采用像素方式建模车道线,方法完全一致。

实验结果

目前实验效果最好的是MapTR方法,仅通过图像源即可超过其他方法的点图融合效果,指标和可视化结果如下:

83ed0bc67dd106f614dee79b25e23162.png
MapTR实验结果
751b242fb290f0797ae8725490f359c6.png
MapTR可视化

另外有趣的一个实验是,VectorMapNet和SuperFusion均验证了引入该车道线拓扑后对轨迹预测的影响,也说明了在线建图的价值,如下:

914f94ae1853c4302a72992c2b986b39.png
轨迹预测结果
0803d65a5384c111e9303f23d76f5f66.png
轨迹预测可视化

业界工作

特斯拉

特斯拉在AIDAY2022(https://www.youtube.com/watch?v=ODSJsviD_SU&t=10531s)中着重介绍了车道拓扑生成技术方案。借鉴语言模型中的Transformer decoder开发了Vector Lane模块,通过序列的方式自回归地输出结果。整体思路是将车道线相关信息,包括车道线节点位置、车道线节点属性(起点,中间点,终点等)、分叉点、汇合点、以及车道线样条曲线几何参数进行编码,做成类似语言模型中单词token的编码,然后利用时序处理办法进行处理,将这种表示看成“Language of Lanes”。

00e74d98bde7e47f3827c0c4be52e1f2.png
Vector Lane模块

其中BEV特征(Dense World Tensor)不仅包括视觉图像特征,还引入了低精度地图中关于车道线几何/拓扑关系的信息、车道线数量、宽度、以及特殊车道属性等信息的编码特征,这些信息提供了非常有用的先验信息,在生成车道线几何拓扑时很有帮助,尤其是生成无油漆区域的虚拟车道线。

自回归方式生成车道线几何拓扑的详细过程如下:

  • 先选取一个生成顺序(如从左到右,从上到下)对空间进行离散化(tokenization),然后就可以用Vector Lane模块预测一系列的离散token,即车道线节点。考虑到计算效率,采用了Coarse to Fine方式预测,即先预测一个节点的粗略位置的(index:18),然后再预测其精确位置(index:31),如下:

7ab6b9dd2a85c5171c47c4ad609d010c.png
预测节点
  • 接着再预测节点的语义信息,例如该节点是车道线起点,于是预测“Start”,因为是“Start”点,所以分叉/合并/曲率参数无需预测,输出None。

b8e90a4f22a0b3b6915a152531c13306.png
预测节点的语义信息
  • 然后所有预测结果接MLP层输出维度一致的Embedding,并将所有的Embedding相连得到车道线节点的最终特征,即输出第一个word(绿色点),如下:

22e2a6215151a622e2181baa6bc6332c.png
节点特征整合
  • 接着将第一个word输入给Self Attention模块,得到新的Query,然后和Vector Space Encoding生成的Value和Key进行Cross Attention,预测第二个word(黄色点),整体过程和预测第一个word相同,只是第二个word的语义是“Continue”(代表延续点),分叉/合并预测结果仍为None,曲率参数则需要预测(根据不同曲线方程建模,例如三次多项式曲线或贝塞尔曲线等),如下:

cd3afba28daf5e2947af5acde29c45b7.png
迭代预测第二个节点
  • 接着同样方式预测第三个word(紫色点),如下:

3b9390a5bcd844768e85327663b13801.png
迭代预测第三个节点
  • 然后回到起始点继续预测,得到第四个word(蓝色点),该word和也是和第一个word相连,所以语义预测为“Fork”(合并点),如下:

30c9fd767f70350db97f17210aa64ba6.png
迭代预测第四个节点
  • 进一步输入前序所有word,预测第五个word,该word的语义预测为“End of sentence”(终止点),代表从最初的第一个word出发的所有车道线已经预测完成。

616d58b236c57d9583e58964d77c124c.png
迭代预测第五个节点
  • 由此遍历所有起始点,即可生成完整的车道线拓扑,如下:

754c275736a9e2ad1e158dd6ddfd4e6e.png
车道线拓扑
f98f6bb4ee5bf2f47679c7171e2d0b73.png
在线建图可视化

百度

百度在ApolloDay2022(https://www.apollo.auto/apolloday/#video)上也介绍了生成在线地图的技术方案,可以概述为以下几点:

  • 点图融合,图像分支基于Transformer实现PV2BEV空间转换;

  • Query-based的set-prediction,引入Instance query、Point query以及Stuff query同时学习地图要素实例、矢量点以及可行驶区域分割等;

  • 高精地图(精度)和众源地图(规模和鲜度)多源融合;

9291708bec6f0eb09c257257d9615dca.png
在线建图架构图
54496c8392b48c8458ada0697cda6a0b.png
在线建图架构图

毫末智行

毫末智行是一家重感知轻地图的公司,因此也在毫末智行AI DAY(https://mp.weixin.qq.com/s/bwdSkns_TP4xE1xg32Qb6g)上着重介绍了在线建图方案,可以概述为以下几点:

  • 点图融合,图像分支基于Transformer实现PV2BEV空间转换;

  • 实物车道线检测+虚拟车道线拓扑,实物车道线检测的Head采用HDMapNet方式生成,虚拟车道线拓扑则是以SD地图作为引导信息,结合BEV特征和实物车道线结果,使用自回归编解码网络,解码为结构化的拓扑点序列,实现车道拓扑预测;

20817a17aa3986605f2a9da1b2b04d4c.png
实物车道线检测
8511bd32c8ff1c7f98aaf32b16d41d41.png
虚拟车道线拓扑生成

地平线

地平线也在分享(https://mp.weixin.qq.com/s/HrI6Nx7IefvRFULe_KUzJA)中也介绍了其在线建图方案。

e913bca84d4bb9efae7b438ccabfde6a.png
BEV感知架构

通过六个图像传感摄像头的输入,得到全局BEV语义感知结果,这更多是感知看得见的内容,如下图所示:

089ae676bb57f16682824c206fb967f6.png
语义感知

再通过引入时序信息,将想象力引入到 BEV感知中,从而感知看不见的内容,如下右图所示,感知逐渐扩展自己对于周边车道线、道路以及连接关系的理解,这个过程一边在做感知,一边在做建图,也叫做online maps。

190a1c64112ced0857bb0953a0e3dc35.png
超视距感知

小鹏

小鹏汽车目前推出了全新一代的感知架构XNet(https://mp.weixin.qq.com/s/zOWoawMiaPPqF2SpOus5YQ),结合全车传感器,对于静态环境有了非常强的感知,可以实时生成“高精地图”。核心是通过Transformer实现多传感器、多相机、时序多帧的特征融合。

0286044afcaf092e9a320a96bbb50c41.png
XNet架构图

思考

抛开技术外,我还想聊聊对图商的”离线高精地图“和自动驾驶公司的”在线地图“的认识。

地图是自动驾驶的一个非常重要模块,自动驾驶不能脱离地图,因为自动驾驶是运行在规则约束的交通系统下,无法摆脱这套规则的约束,而地图恰恰是这套规则系统表达的很好载体,一个完整的地图不仅包括各种地图要素,还包括各种交通规则,例如该车道能否掉头、该红绿灯作用在哪个车道等。因此,图商凭借在SD地图制作经验(交通规则理解),均开展了”离线高精地图“制作,包括高德地图、百度地图、腾讯地图、四维图新等。而图商制作”离线高精地图“的逻辑是,建立统一的、大而全的高精地图标准,同时服务于市场上的多家自动驾驶公司。但不同的自动驾驶公司的自身自动驾驶能力差异非常大,对高精地图的需求也不同,这就导致”离线高精地图“越来越复杂,图商的采集和制作成本也越来越高。正因为成本高,高精地图的覆盖率低和鲜度差的问题也始终未被解决,这是每个图商都需要面对的紧迫问题。尽管也有一些众包更新的解决方案,但实际得到大规模应用的并不多。

而自动驾驶又需要高覆盖、高鲜度的高精地图,于是自动驾驶公司开始研究如何“在线建图”这个课题了。“在线建图”的关键在于“图”,在我看来,这个“图”已经不是“离线高精地图”的“图”了,因为自动驾驶公司的“在线建图”是根据自身的自动驾驶能力调整的,在“离线高精地图”中的冗余信息都可以舍弃,甚至是常说的精度要求(“离线高精地图”一般要求5cm精度)。而恰恰因为对“图”进行了简化,所以自动驾驶公司的”在线地图“才有了可行性。通过”在线地图“,在“离线高精地图”覆盖范围内实现地图更新,在“离线高精地图”覆盖范围外生成自己可用的地图,可能会有一些自动驾驶功能的降级,这个边界仍在摸索中。

不过,测绘资质和法规变化可能会促使一种新的图商和自动驾驶公司的高精地图生产合作模式,即自动驾驶公司提供智能车数据 + 图商提供高精地图制作能力的生态闭环。2022年下半年,国家和地方密集出台了一系列高精度地图相关法律,例如:《关于促进智能网联汽车发展维护测绘地理信息安全的通知》、《关于做好智能网联汽车高精度地图应用试点有关工作的通知》等。这些法律文件明确界定了智能网联汽车和测绘的关系,即智能网联汽车在运行过程中(包括卖出的车)对数据的操作即为测绘,并且自动驾驶公司是测绘活动的行为主体。从规定来看,自动驾驶公司的“在线地图”是明确的测绘行为,而想要合法测绘,必须拥有导航电子地图制作的甲级资质,而获得资质的途径可以是直接申请(太难申请,并且不是一劳永逸,可能在复审换证环节被撤销企业资质)、间接收购(风险高)、以及与图商合作。由此来看,自动驾驶公司和图商合作的生态闭环可能是唯一解法。那么,自动驾驶公司的智能车数据提供给图商进行地图数据生产是否合法呢?在《上海市智能网联汽车高精度地图管理试点规定》中,明确规定“鼓励具有导航电子地图制作测绘资质的单位,在确保数据安全、处理好知识产权等关系的前提下,探索以众源方式采集测绘地理信息数据,运用实时加密传输及实时安全审校等技术手段,制作和更新高精度地图。” 目前,腾讯地图已官宣与蔚来宣布达成深度合作,打造智能驾驶地图、车载服务平台等,当然这可能更多是投资关系促使。如何真正实现高精地图生产的生态闭环,可能是图商未来的破局关键。

参考文献

【1】nuScenes: A multimodal dataset for autonomous driving

【2】Argoverse 2: Next Generation Datasets for Self-Driving Perception and Forecasting

【3】HDMapNet- An Online HD Map Construction and Evaluation Framework

【4】PointPillars: Fast Encoders for Object Detection from Point Clouds

【5】PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation

【6】VectorMapNet- End-to-end Vectorized HD Map Learning

【7】MapTR- Structured Modeling and Learning for Online Vectorized HD Map Construction

【8】Efficient and robust 2d-to-bev representation learning via geometry-guided kernel transformer

【9】SuperFusion- Multilevel LiDAR-Camera Fusion for Long-Range HD Map Generation and Prediction

【10】Categorical depth distribution network for monocular 3d object detection

【11】DETR: End-to-End Object Detection with Transformers

【12】Lane-Level Street Map Extraction from Aerial Imagery

【13】BEVFusion: Multi-Task Multi-Sensor Fusion with Unified Bird’s-Eye View Representation

【14】Categorical Depth Distribution Network for Monocular 3D Object Detection

投稿作者为『自动驾驶之心知识星球』特邀嘉宾,欢迎加入交流!

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测车道线检测轨迹预测在线高精地图世界模型点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署大模型与自动驾驶Nerf语义分割自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

70beb11c45cf6b303821966aaed7ff15.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2400人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

78fba2fde6c38e1b622e34297c40c6c3.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

d1b24dfdcf178f2d61c16322585af32a.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

7536514a59bdfc5d821794657b9f628b.jpeg

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值