4D Millimeter-Wave Radar in Autonomous Driving: A Survey

题目:4D Millimeter-Wave Radar in Autonomous Driving: A Survey

名称:自动驾驶4D毫米波雷达研究综述

论文:https://arxiv.org/abs/2306.04242

0.摘要

4D毫米波雷达能够测量目标的距离、方位、仰角和速度,引起了自动驾驶界的极大兴趣。这归功于其在极端环境中的稳健性以及卓越的速度和高程测量能力。然而,尽管其传感理论和应用研究进展迅速,但对4D毫米波雷达的研究却明显不足。为了解决这一差距并促进该领域的未来研究,本文对4D毫米波雷达在自动驾驶中的应用进行了全面的调查。首先介绍了4D毫米波雷达的理论背景和研究进展,包括信号处理流程、分辨率提高方法、外部校准过程和点云生成方法。然后介绍了自动驾驶感知、定位和映射任务中的相关数据集和应用算法。最后,本文通过预测4D毫米波雷达领域的未来趋势得出结论。据我们所知,这是第一次专门针对4D毫米波雷达的调查。

1.介绍

旨在提供安全、便捷、舒适的交通体验的自动驾驶技术正在快速发展。要实现高水平的自动驾驶,环境感知、定位和地图绘制能力至关重要。因此,自动驾驶汽车上的传感器,如相机、激光雷达和雷达,以及它们的算法,正吸引着越来越多的研究兴趣。

在各种传感器中,毫米波雷达凭借其公认的小型、低成本、全天候运行、测速能力和高距离分辨率等优势,[1]一直被广泛应用于自动驾驶。然而,传统的毫米波雷达,也称为3D毫米波雷达在测量目标仰角方面表现出较弱的性能,并且它们的数据通常只包括距离、方位和速度信息。此外,3D毫米波雷达存在杂波、噪声和低分辨率的问题,特别是在角度维度上,这进一步限制了它们在复杂感知任务中的适用性。

最近,多输入多输出(MIMO)天线技术的进步提高了仰角分辨率,导致了4D毫米波雷达的出现。顾名思义,4D毫米波雷达可以测量四种类型的目标信息:距离、方位、仰角和速度。

4D毫米波雷达不仅是毫米波雷达的改进版本,而且引入了许多重要的研究课题。4D毫米波雷达的原始数据量远大于传统雷达,这给信号处理和数据生成带来了挑战,更不用说杂波和噪声了。现有信号处理流程中产生的4D毫米波雷达点云的稀疏性和噪声比激光雷达点云更严重,因此需要仔细设计感知、定位和映射算法,以解释4D毫米波的固有特性。

研究人员对毫米波雷达的理论和应用进行了大量的调查。近年来,Bilik等人[2]回顾了毫米波雷达在自动驾驶汽车中的挑战及其未来趋势。Venon等人[3]全面总结了毫米波雷达在自动驾驶中的理论和现有感知算法,Harlow等人[4] 重点介绍毫米波雷达在机器人领域的应用。很明显,大多数评论都集中在三维毫米波雷达上。

尽管4D毫米波雷达和相关算法的革命性兴起,但很少有专门的调查。为了解决这一差距,本文对自动驾驶中的4D毫米波雷达进行了全面的回顾。这项工作的主要贡献可概括如下:据我们所知,这是首次对自动驾驶中的4D毫米波雷达进行调查。鉴于4D毫米波雷达的独特性,本综述具体介绍了其理论背景和信号处理流程。本文对4D毫米波雷达在自动驾驶中的应用算法进行了详尽的综述,涵盖了感知、定位和映射方面的研究。

本文的其余部分组织如下:第二节介绍了4D毫米波雷达的基本理论,包括信号处理流程、数据格式和提高分辨率的方法。第三节概述了一些外在的校准算法。第四节总结了一些基于学习的点云生成方法。第五节列出了可用的4D毫米波雷达数据集,以方便研究人员。第六节回顾了4D毫米波雷达感知应用,分为仅4D雷达方法和多模态方法。第七节介绍了4D毫米波雷达在定位和测绘中的应用,包括里程计、重定位和同时定位和测绘(SLAM)。第八节讨论了4D毫米波雷达在自动驾驶中的未来趋势,第九节得出结论。

2.背景

对于专注于自动驾驶的研究人员来说,关于4D毫米波雷达的基本知识可能经常被忽视。本节简要回顾了4D毫米波雷达的基本理论和提高分辨率的方法,为以下章节奠定了基础。

A.信号处理流程

4D毫米波雷达的传统信号处理流程和相应的数据格式如图1所示。在步骤1中,从发射(TX)天线发射毫米波。到达周围目标后,波被反射到接收(RX)天线。大多数现有的4D毫米波雷达的波形是调频连续波(FMCW),与其他波形相比,它提供了更高的分辨率。在FMCW雷达的发射天线的每个工作周期(即线性调频)中,信号的频率随着起始频率fc、带宽B、频率斜率S和持续时间Tc线性增加。通过测量接收信号的频率,可以如下计算目标的范围r:

其中,t是发射和接收之间的时间间隔,c是光速,Δf是发射信号和接收信号之间的频率差。同时,FMCW雷达的一帧包含Nc个啁啾并且具有持续时间Tf。为了避免相邻啁啾之间的干扰,发射和接收信号被考虑在一个啁啾内,因此4D毫米波雷达的最大无模糊检测范围受到Tc的限制。以德州仪器的AWR1843为例,其Tc=0.33μs,因此其最大无模糊范围为50m。在假设目标在一帧中的距离是恒定的情况下,目标的径向相对速度v可以通过多普勒效应计算如下:其中,第一个方程是多普勒效应公式,Δf和Δφ分别是相邻两个啁啾的接收信号之间的频率和相位漂移。很明显,距离和多普勒分辨率取决于fc、Tc、Nc等,读者可以参考[3]了解详细信息。

为了估计目标的到达方向(DOA),多输入多输出(MIMO)天线设计通常应用于毫米波FMCW雷达中。n个TX天线和m个RX天线由n×m个虚拟TXRX对组成。为了分离发射信号,不j同的TX天线应该发射正交信号。通过比较不同TX-RX对之间的相位漂移,可以计算不同对到同一目标的距离差。进一步考虑沿TX和RX天线的位置关系,可以获得目标的DOA。

每对的信号在步骤2由混频器混合,并在步骤3由模数转换器(ADC)转换以获得原始ADC数据。应该注意的是,图1中的对矩阵的坐标1分别表示啁啾和帧内的采样时间戳,每个单元中的值对应于反射强度。然后,在步骤4,沿着距离和多普勒维度进行2D快速傅立叶变换(FFT),以生成距离-多普勒图,其坐标为距离和速度。随后,出现了两种主流的信号处理流程。前者是首先沿着不同的TX-RX对进行FFT以导出方位角和仰角信息(步骤5a)。获取4D距离-方位-仰角多普勒张量,而对于3D毫米波雷达,结果是3D距离-方位多普勒张量。在步骤6a,通常在四个维度上应用恒定虚警率(CFAR)算法[8],通过每个单元的强度对张量进行滤波,并获得下游任务的点云格式的真实目标[9]。相反,后一种信号处理流程首先使用CFAR算法对RD图进行滤波以生成目标小区(步骤5b)然后在步骤6b使用数字波束形成(DBF)方法来恢复角度信息并生成雷达点云[6]。

B.提高分辨率的方法

如上所述,4D毫米波雷达最关键的能力是测量目标的仰角,这相当于提高仰角分辨率。具体方法可分为硬件和软件两个层次,如下所示:

1. 硬件:

在硬件层面,增加TX-RX对的数量或天线的孔径是提高分辨率的两种主要方法,包括:

级联:简单地级联几个标准毫米波雷达芯片[10]可以增加TX-RX对,从而提高角分辨率。例如,12TX-16RX(192对)4D毫米波雷达可以通过级联四个标准3TX-4RX(12对)雷达芯片来形成。这是最直接的方法,但尺寸和功耗也有所增加。

芯片集成:在芯片上集成更多天线是另一种很有前途的技术[11]。它有可能取代级联,但天线之间的干扰仍然是一个未解决的问题。

元材料:由元材料构建的孔径可以在控制尺寸的同时显著提高角分辨率[12],但这种方法还不够成熟,无法广泛应用。

2. 软件:

通过虚拟地实现硬件改进或沿着处理流程优化信号处理算法,可以在软件层面提高雷达分辨率。

虚拟孔径成像:受传统合成孔径雷达(SAR)的启发,一些研究人员试图通过软件设计虚拟地扩大天线的孔径,从而提高角分辨率[13]。这种方法在提高角分辨率方面有显著效果,但通常需要级联的帮助来降低噪声。

超分辨率:通过用创新算法[14],甚至基于学习的算法[15]取代信号处理流程中的FFT等传统方法,可以实现超分辨率。然而,它也需要更深入的研究才能实际应用。

3.外参标定

雷达点云相对稀疏,频谱数据不够直观。由于多径效应和杂波干扰,噪声也相当大,给校准带来了挑战。对于4D毫米波雷达,更高的分辨率缓解了这一问题,但仍然缺乏足够稳健的在线校准方法。

继传统的三维毫米波雷达校准方法之后,通常使用回复反射器来提高校准精度。通过在特定位置仔细放置几个回复反射器,分析4D毫米波雷达的传感结果,并将其与激光雷达和相机数据进行比较,可以校准外部参数[16]。Domhof等人没有连续校准每个传感器对,而是直接相对于移动机器人的身体一起校准所有传感器,并实现仅0.02的中值旋转误差◦ [17] 。

然而,回复反射器在真实场景中的实用性是有限的。近年来,一些研究人员为4D毫米波雷达设计了不需要专门放置回复反射器的校准方法。相反,雷达运动测量用于对雷达[18]或雷达-摄像机对[19]进行校准。这些方法的便利性得到了保证,但仍需在极端天气条件下进行验证。

4.点云生成

4D雷达点云稀疏的一个主要原因是CFAR造成的大量信息损失。为了解决这个问题,越来越多的基于学习的方法被提出来取代CFAR,并直接与RD图或4D张量一起工作,以提高4D雷达点云的质量和下游自动驾驶任务的性能,如感知和定位。相关工作,以及4D毫米波雷达的数据集、感知、定位和映射算法,将在下文中说明,统一显示在图2中的时间线上。

一般来说,如果细胞是独立且相同分布的,则恒虚警是一种最优检测算法。:然而,由于现实世界中的目标通常具有不同的形状并占据多个单元,CFAR类型的方法会导致掩蔽效应,降低点云的分辨率并遭受信息损失。Brodeski等人[20]首先将CNN应用于RD地图,用于多个物体的检测和定位,称为DRD(深度雷达检测)网。他们将RD图中的目标检测公式化为分割任务,并采用类似于2D-U-Net[21]的模型结构。面对缺乏注释良好的数据集,特别是雷达RD图,他们参考了雷达校准过程,在消声室中布置回复反射器以收集相应的数据,并将其映射回RD图作为标签。实验表明,DRD网络可以实时运行(推理时间为~20ms),在检测精度上优于经典方法。

然而,RD地图的标签挑战仍然存在,因为在消声室中收集的数据与在真实世界驾驶场景中收集的不同,而在多径反射、干扰、衰减等方面更具挑战性。为了应对这一挑战,Cheng等人[6][22]使用激光雷达点云作为监督,并相继设计了基于U-Net[23]和GAN[24]的网络结构。在复杂的道路场景中,与经典的CFAR探测器相比,[22]生成的4D雷达点云不仅包含更少的杂波点,而且提供了更密集的真实目标点云。

 5.数据集

目前,本节介绍了4D毫米波雷达的可用数据集,总结见表I。公共数据集对于基于4D毫米波雷达的算法至关重要,因为它们为开发和比较不同的算法以及刺激相关研究提供了一个平台。因此,我们在撰写本文时整理了已发表的数据集,希望这些数据集能促进基于4D雷达的算法的研究。

公开的4D雷达数据相当罕见,Astyx HiRes 2019是第一个现有的数据集[25]。免费提供的数据由500个同步帧(雷达、激光雷达、相机)组成,其中包含约3000个精确注释的3D对象注释。可以看出,该数据集中的数据量相对较小。
ColoRadar是一个专门用于定位和测绘研究的数据集,包含来自雷达、激光雷达和姿态地面实况的约2小时数据[9]。它为雷达数据提供了三个级别的处理:原始ADC数据、通过压缩4D雷达张量的多普勒维度得出的3D距离方位-仰角张量和雷达点云。该数据集收集了室内和室外几种独特环境中的数据,提供了各种各样的传感器数据。

VoD数据集是一种用于多类3D物体检测的新的多传感器汽车数据集,由校准和同步的激光雷达、相机和雷达数据组成[26]。它包含在复杂城市交通中获取的8693帧数据,其中包括123106个移动和静态对象的3D边界框注释以及每个注释对象的跟踪ID,这对跟踪很有用。

类似地,Tj4DRadSet数据集包含44个连续序列,共7757个同步帧,使用3D边界框和轨迹ID[16]进行了良好标记。此外,它涵盖了更丰富、更具挑战性的驾驶场景片段(如城市道路、高速公路、工业园区)。

据我们所知,K-Radar是目前基于4D毫米波雷达的最大规模数据集,收集了35k帧条件(如晴天、雾天、雨天、雪地)[27]。除了4D雷达数据外,K-radar还提供高分辨率激光雷达点云、来自四个立体相机的环绕RGB图像以及来自ego车辆的RTK-GPS和IMU数据。值得一提的是,Kradar是目前唯一提供4D雷达张量的数据集。为了便于对各种神经网络结构进行实验,K-radar还提供了一个可视化程序来模块化神经网络训练代码。

尽管4D毫米波雷达越来越受到学术界的关注,数据集也越来越多,但与视觉或激光雷达相比,数据量仍然不够大。

6.感知应用

目前,4D毫米波雷达的点云密度已经达到了与近光束激光雷达相当的水平,4D毫米波雷达在低能见度和恶劣天气条件下表现出优越的鲁棒性。因此,研究人员一直试图将激光雷达点云处理模型转移到4D毫米波雷达上,用于目标检测、场景流预测和其他任务。此外,如第四节所述,CFAR前雷达数据包含更丰富的信息,促使一些研究人员绕过点云生成任务,直接使用RD图或4D张量。相关工作可以进一步分为仅依靠4D雷达或多模态传感器融合的工作。

A.仅4D雷达方法

当然,大多数相关的仅4D雷达的方法都是从基于激光雷达的方法中得出的。然而,由于毫米波雷达的稀疏性和噪声特性,仍然需要特定的网络设计。

1) 3D检测:

对于3D对象检测任务,根据模型架构的不同,感知方法可以分为基于CNN的和基于Transformer的。Palffy等人[26]首先将PointPillars应用于4D雷达点云,用于多级道路使用者的3D检测。通过时间积分和引入额外的特征(如仰角和多普勒速度)来提高性能。然而,所提出的方法的结果(mAP 47.0)仍然远不如64束激光雷达上的激光雷达探测器(mAP 62.1)。

RPFA-Net[28]通过引入雷达柱特征注意力(PFA)模块取得了进展。它利用自注意而不是简化的PointNet[29]从支柱中提取全局上下文特征,旨在有效地捕获长距离信息,提高航向角估计精度。

作为集合算子,基于注意力的Transformer在处理这些具有置换不变性的点集方面具有固有的优势。因此,为了应对4D毫米波雷达的稀疏和噪声数据,Tan等人[30]提出了一种基于多帧点云的3D目标检测框架。他们首先从点云中获得自我车辆速度和补偿速度信息,然后将附近的帧累积到最后一帧。

除了直接处理雷达点云上的感知任务外,一些研究还将注意力转向了RD图或4D张量,旨在利用更多潜在的隐藏信息。K-Radar数据集[27]提出了一种直接使用4D张量作为输入的3D对象检测基线,并验证了4D张量的高程信息对3D对象检测至关重要。所提出的模型还证明了基于4D张量的感知的稳健性,特别是在恶劣天气条件下。

2) 场景流量估计:

场景流估计旨在计算3D运动矢量场,该运动矢量场表示关于自我主体的环境内的静态和动态元素的运动。虽然一些研究传统上依赖于不同的传感模式,如相机或激光雷达来进行场景流量估计,但也有一些方法利用4D毫米波雷达数据来完成这项任务。
具有代表性的是,Ding等人[31]提出了一种通过跨模态学习进行基于4D雷达的场景流估计的新方法,其动机是现代自动驾驶汽车中的共定位传感冗余。这种冗余隐含地为雷达场景流估计提供了多种形式的监督提示,可以有效地解决雷达点云标记的困难。具体而言,本文介绍了一种用于跨模态学习问题的多任务模型体系结构。大量实验表明了该方法的最先进性能,并证明了跨模态监督学习在推断更准确的4D毫米波雷达场景流方面的有效性

B.融合方法

考虑到4D毫米波雷达已经可以提供点云信息,一些学者将其与相机或激光雷达融合用于目标检测,希望提高感知模型的准确性和鲁棒性。通常,不同模态有三个融合级别:数据级别、特征级别和决策级别。现有的研究主要集中在特征级融合上。

对于4DRV(4D雷达与视觉)融合,4D毫米波雷达可以以低成本的方式提供高精度的深度和速度信息,弥补了相机的不足,从而提高了3D检测的准确性。在最近的研究中,4D毫米波雷达信号通常被转换为类似2D图像的特征,以便它们可以与相机图像一起实际部署。

具有代表性的是,Meyer等人[32]将基于[33]的网络应用于4D毫米波雷达和相机的融合,该网络最初是为相机激光雷达融合而开发的。为了弥补数据格式的差异,他们丢弃了多普勒信息,只保留了4D毫米波雷达点云的位置信息和反射强度。每个帧的点云用于生成BEV图像,然后生成3D建议。令人惊讶的是,当使用雷达数据而不是激光雷达时,融合网络的精度更高,并且在Astyx数据集上达到61%AP的平均精度[25]。作者认为,原因可能是激光雷达传感器只有16个光束,但仍需进一步研究。

随后的研究由Cui等人进行。[34]具有新添加的自监督模型自适应块[35],其根据对象属性动态地自适应不同模态的融合。此外,还将雷达点云与BEV图像一起生成了正视图。所提出的方法在3D AP方面优于先前的研究[32]高达9.5%。正视图可以更好地利用4D毫米波雷达提供的高程信息,更容易与单眼相机功能融合,在检测精度和计算效率之间取得平衡。

尽管4DRV融合具有上述优势,但在面临剧烈的照明变化或不利的天气条件时,基于可视化的分支可能仍难以工作,这反过来又会影响模型的整体性能。因此,王等人[36]首先探索了4DRL(4D雷达和激光雷达)与InterFusion融合的优势,InterFusion是一种基于交互的融合框架。他们设计了一个InterRAL模块(雷达和激光雷达的交互),并更新了两种模式的支柱,以增强特征表达。通过烧蚀实验验证了其有效性。

在接下来的一项研究中,王等人[37]提出了M2融合网络,该网络集成了一种称为IMMF的基于交互的多模式融合方法和一种名为CMSF的基于中心的多尺度融合方法。使用Astyx数据集[25]进行评估,它显著优于主流的基于激光雷达的目标检测方法。由于激光雷达可以在近距离精确探测物体,4D毫米波雷达由于其穿透性而具有较远的探测范围,因此4DRL融合有可能成为一种低成本、高质量的可靠技术解决方案。

7.定位建图

在卫星定位信息不准确或无法获得高清地图的恶劣环境中,有必要通过感知传感器进行定位和绘制地图。利用新兴的4D毫米波雷达进行了一些相关研究。由于雷达点云比张量轻得多,并且对激光雷达的研究可以通过微小的调整转移到它,因此几乎没有任何关于定位和映射的雷达张量的研究。

A.里程计

雷达测距估计是定位的核心,也是SLAM的关键组成部分。关于4D毫米波雷达的相关研究相当多。然而,由于雷达的稀疏性和噪声,里程计大多是在惯性测量单元(IMU)的帮助下产生的。

Doer和Trommer使用无人机(UAV)为这一主题做出了大量贡献。在[38]中,他们通过气压计估计无人机的高度,然后利用基于随机采样和一致性(RANSAC)的最小二乘法,利用雷达点云的多普勒信息估计自身速度。最后将IMU数据进行融合,构建基于扩展卡尔曼滤波器的雷达惯性里程计。在此基础上,他们考虑了曼哈顿世界假设,即假设环境中的平面相互正交,并实现了与最先进的视觉惯性里程计相当的精度[39]。然后,这一贡献被扩展到多个雷达,并在退化的视觉条件下显示出令人满意的性能,只需很少的计算资源[40][41]。此外,他们还研究了4D毫米波雷达与视觉和热信息的融合,以进一步增强结果[42]。这些研究的唯一缺点是,由于里程漂移会增加,基于EKF的算法可能难以应对大规模环境。在大多数作品中,曼哈顿世界的假设可能会限制其在恶劣户外环境中的适用性。

Michalczyk等人也应用了EKF框架。[43]。他们没有将IMU与雷达点云估计的自我速度直接融合,而是在稀疏、有噪声的雷达扫描中实现3D点匹配,以测量雷达扫描之间的位移。对无人机三维轨迹的估计在总行进距离结束时达到3.32%的漂移。还探讨了基于学习的雷达里程计估计。Lu等人[44]分别通过CNN和RNN编码器提取雷达点云和IMU的特征。然后设计了两阶段跨模态注意力层来融合这些特征,并使用RNN对长期动力学进行建模。整个网络的输出是6自由度里程计,实现了0.8m的绝对轨迹误差(ATE)。该性能展示了在RGB相机或深度相机的帮助下的进一步升级。

B.重定位

重新定位依赖于高精度的在线映射,并且在SLAM中使用高清晰度地图或检测环路闭合时具有重要意义。考虑到4D毫米波雷达点云的稀疏性和噪声性,Cheng等人[45]利用多普勒速度去除运动物体,然后通过合并多个连续扫描来增强点云。受著名的PointNet的启发,采用基于多层感知(MLP)的网络将每个点的维数从4增加到1024,用于逐点特征提取。通过比较当前扫描和全局地图的提取特征,可以实现重新定位

C.SLAM

由于上述测距和测距是SLAM必不可少的,因此最近出现了4D毫米波雷达SLAM的研究。庄等人[46]开发了一种基于迭代EKF的4D毫米波雷达点云全过程SLAM。为了避免类RANSAC方法造成的稀疏性,他们通过迭代加权最小二乘法进行自我速度估计。每个雷达点的权重也反映了其动态,从而可以帮助去除移动物体。扫描和子映射之间的非常规分布到分布匹配进一步降低了稀疏性的影响。效果如图5所示。

诸葛[47]应用姿态图构建了一个SLAM系统,该系统改编自名为hdl图SLAM[48]的激光雷达SLAM方法。在烟雾和雨水的影响下进行了一些令人印象深刻的实验,以证明4D毫米波雷达在极端环境下的稳健性。

8.未来展望

4D毫米波雷达有可能给自动驾驶汽车带来深刻的变化。尽管如此,它目前还远远不够成熟。4D毫米波雷达的未来发展趋势可能主要取决于以下几个方面。

1) 点云增强

作为最常用的数据格式,4D毫米波雷达点云与其他传感器相比质量明显较低。雷达的多径效应等特性严重影响了点云的数据质量。此外,迫切需要改进信号处理流程中的信息损失,特别是通过用精确设计的基于学习的方法取代CFAR基于学习的DOA估计方法,而不是DBF方法,也可以用于超分辨率角度估计。

2) 应用算法重新设计

除了改进4D毫米波雷达点云外,信号处理后的应用算法是另一个不可忽视的问题。到目前为止,许多4D毫米波雷达的应用算法都是在相应的激光雷达算法的基础上进行修改的。4D毫米波雷达的特殊性,如速度测量能力和在极端环境下的自适应能力,有待于未来的研究进一步探索。对于感知任务来说,多模态融合无疑是未来的发展方向。然而,其他传感器分支的集成仍将削弱天气条件。对于4D毫米波雷达的定位和测绘,传感器与激光雷达和相机的融合有很大的发现空间。

3) 点云前数据利用

至于4D毫米波雷达信号处理流程中的独特数据格式,如原始ADC数据、RD图和4D张量,利用这些数据进行感知、定位和映射是一个有趣但几乎没有触及的话题。基于学习的模型可以利用这些数据中的充足信息,同时保持可接受的实时性能,这可能是一个研究热点。

4) 数据集丰富

与所有其他数据驱动的研究领域一样,4D毫米波雷达的数据集在相关研究中发挥着重要作用。包含4D毫米波雷达的现有数据集相对较少。数据格式和场景丰富性是有待扩展的两个主要领域

9.总结

本文全面介绍了4D毫米波雷达在自动驾驶中的应用。它相继涵盖了信号处理理论、数据集、外部校准方法、基于学习的雷达点云生成算法、在感知、定位和映射中的应用以及未来趋势。4D毫米波雷达在自动驾驶领域的研究仍在进行中,具有巨大的未来发展潜力。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值