融合不考虑协同感知存在的通信延迟、数据丢包等问题
文章平均质量分 91
只是将源数据或者特征进行融合,不考虑数据传输过程中的时间延迟问题。
superbzhoucc
这个作者很懒,什么都没留下…
展开
-
MAMP:基于 model-agnostic 的V2V协同感知(3D目标检测)
在协同感知的背景下,来自不同利益相关的agent具有异质性的模型。为了保密起见,与模型和参数有关的信息不应透露给其他agent。本文提出了一个与模型无关model-agnostic协同感知框架,解决了后期融合策略的两个关键挑战。1.提出了一个置信度校准器,以统一不同agent的分类置信度分布,消除预测的置信度分数偏差。2.提出了一个边界框聚合算法,该算法同时考虑了校准的分类置信度和边界框回归给出的空间一致性信息。原创 2022-12-31 17:23:59 · 633 阅读 · 0 评论 -
MPDA:基于Domain Adaption的V2X协同感知(3D目标检测)
在协同感知中进行domain gap识别(空间分辨率、通道数量、模式),为解决这3个主要的特征差异问题,提出了一个Multi-agent Perception Domain Adaption(MPDA)框架,可在多个维度上对特征进行调整。提出了一个Learnable Feature Resizer,以自适应的方式更好地调整来自其他agent的空间和通道特征。提出了一个Sparse Cross-domain Transformer,可以有效地统一来自不同agent的特征模式。原创 2022-12-31 02:33:48 · 599 阅读 · 0 评论 -
基于路边基础设施LiDAR点云的车辆跟踪系统
提出了一种LiDAR数据处理过程,通过考虑车辆检测和车道识别设计了一个自动车辆跟踪系统,从路边设施LiDAR传感器中提取所有车辆的高精度高分辨率的轨迹,该过程包括背景过滤、DBSCAN聚类、RF分类、RGBC车道识别和GNN跟踪等方法。1)背景过滤:通过应用基于统计学的背景过滤方法,去除从路面或建筑物反射的激光点;2)聚类:采用基于密度的有噪声的空间聚类(DBSCAN)方法为激光点生成聚类;3)分类:采用随机森林(RF)分类方法,为不同的物体(如车辆和行人)生成不同的类别标签;原创 2022-12-17 01:01:31 · 388 阅读 · 0 评论 -
基于GM-PHD滤波器的V2V协同感知( 多目标跟踪)
本文提出了一种对多辆汽车进行协作跟踪的方法,该方法将高斯混合概率假设密度滤波器(GM-PHD)与协作融合算法进行扩展。以先检测后跟踪的方式进行预处理,并使用矩形形状模型对汽车进行跟踪。为了扩大单个车辆的视场,提高多辆车可观察到的目标区域的估计置信度,在车辆之间交换PHD强度,并使用一个基于广义协方差交叉融合的算法在协同GM-PHD滤波器中进行融合。在车辆以不同速度表现出直线和曲线运动的情况下,使用一个经过校准的高保真模拟器对该方法进行了广泛的评估。原创 2022-11-26 17:32:40 · 1452 阅读 · 0 评论 -
基于车载无线通信和车辆远程传感器融合的V2X协同感知(目标跟踪/轨迹预测)
为了实现可靠的车辆驾驶环境识别,并提供适当的道路安全应用,提出了基于车载传感器和车辆无线通信的协同感知方法。提出了基于车辆无线通信数据与车载传感器数据融合的协同感知方法,其中,采用了基于Kalman滤波的方法来融合车载传感器感知和通过V2X通信接收到的目标轨迹数据,以准确可靠地定位车辆周围的远程目标并预测其未来的轨迹。1)所提出的方法应用范围被限制在Ego车辆周围存在单一远程目标的驾驶场景中。2)轨迹预测是基于基于物理学的运动模型,这种模型可以在短期预测中表现良好,但当预测范围扩大时,其性能就会下降。原创 2022-11-26 15:42:35 · 1614 阅读 · 0 评论 -
基于协方差交叉融合算法的V2X协同感知(多目标跟踪)
提出了一个基于CI的概率轨迹融合方法应用于V2X CP,可在不需要知道任何互相关未知的情况下,对本地感知信息和从其他ITS-S收到的感知目标信息进行融合;支持Ego CV中不同类型的感知信息的融合,包括其本地感知数据、传感器原始数据和通过V2X通信从其他合作ITS-S收到的目标轨迹。原创 2022-11-26 03:11:25 · 1159 阅读 · 0 评论 -
V2V协同多目标跟踪——目标尺寸和位置估计
我们提出了一种基于机器学习的方法,以提高协作式自动驾驶应用的共享信息的准确性。这种方法使用两个对话神经网络来检测和分类物体。物体分类有助于提取物体的尺寸,这些尺寸用于估计SAE标准要求的物体中心点的位置。结果表明,位置估计的误差非常小。本文提出了一种基于机器学习的方法,与目标跟踪系统相结合,能够对共享的object进行分类和提取三维信息。该方法提供了V2V通信所需的被追踪物体目标的尺寸和中心点的位置。在本文中,我们提出了一种新的方法,其中使用了两个深度神经网络来分类和提取检测到的object的信息。原创 2022-11-24 01:34:09 · 1442 阅读 · 0 评论 -
PillarGrid:基于Grid-wise Feature Fusion的V2I协同感知(3D目标检测)
全局空间对齐后,自定义了每个LiDAR的检测区域,而被划分进的点云数据并非此LiDAR传感器产生。pillar特征提取时,选择特征值最大的点来表示该pillar的特征。采用 maxpooling 来进行特征融合,缺乏信息选择和数据关联性的识别,所选择的特征不一定是最好的。V2X协同感知存在的延迟、GPS定位错误、数据丢包等问题。车辆和路边设施的异构性。原创 2022-10-19 20:08:37 · 375 阅读 · 1 评论 -
DiscoNet:基于Distilled Collaboration Graph的V2V协同感知
为了促进多车感知的更好的性能-带宽权衡,提出了Distilled Collaboration Graph(DiscoGraph)来模拟车辆之间的可训练、姿势感知和自适应协作。提出了一个teacher-student框架,通过knowledge distillation来训练 DiscoGraph。teacher model采用早期协作方式以整体视图输入;student model采用中期协作方式以单视图作为输入。原创 2022-10-12 14:14:09 · 1050 阅读 · 0 评论 -
Keypoints-Based Deep Feature Fusion for Cooperative Vehicle Detection of Autonomous Driving
基于LiDAR点云的3D目标检测(车辆),体素特征提取,COMAP仿真数据集。原创 2022-09-30 20:34:15 · 353 阅读 · 0 评论 -
Adaptive Feature Fusion for Cooperative Perception using LiDAR Point Clouds
提出的基于特征融合的协同感知网络结构是从PointPillars扩展而来,以点云为输入,分5步处理数据:1)特征编码–用柱状特征网络(PFN)将点云转换为伪图像;2)中间特征提取–用2D pyramid network金字塔网络从伪图像中提取多尺度特征;3)特征投影–用LiDAR pose信息将CAV的中间特征图投影到自车坐标上;4)中间特征融合–用特征融合网络生成组合特征图;5)3D目标检测–用Single Shot Detector(SSD)回归边界框,预测检测到的物体类别。原创 2022-09-29 19:28:43 · 737 阅读 · 0 评论 -
F-Cooper: 基于 3D 点云特征的自动驾驶车辆边缘计算系统的协作感知
提出了一种基于点云特征的协同感知框架(F-Cooper):1)利用特征级融合实现端到端的 3D 目标检测,特征级数据传输不会有网络拥塞的风险,可实现实时边缘计算和低通信延迟;2)除了能够提高检测精度外,特征融合所需的数据量仅为原始数据量的百分之一,在数据量和传输时间上都很好地处于 On-Edge 计算和通信的可接受范围内;3)两种融合方案:体素特征融合和空间特征融合。原创 2022-09-27 22:56:01 · 832 阅读 · 0 评论 -
Cooper: Cooperative Perception for Connected Autonomous Vehicles based on 3D Point Clouds
Cooper:基于 3D LiDAR 点云的联网自动驾驶汽车(CAV)的协同感知方法原创 2022-09-21 22:22:33 · 553 阅读 · 0 评论