自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(60)
  • 收藏
  • 关注

原创 【论文解读】Asynchrony-Robust Collaborative Perception via Bird‘s Eye View Flow

协作感知通过促进多个智能体之间的沟通,极大地提高了每个智能体的感知能力。然而,在现实世界中,由于通信延迟、中断和时钟失调,代理之间的时间异步是不可避免的。这个问题导致了多智能体融合过程中的信息不匹配,严重动摇了协作的基础。为了解决这一问题,我们提出了基于鸟瞰流的异步鲁棒协同感知系统CoBEVFlow。CoBEVFlow的关键直觉是补偿运动,以对齐多个代理发送的异步协作消息。为了模拟场景中的运动,我们提出了BEV流,它是对应于每个空间位置的运动向量的集合。

2024-08-17 21:37:02 813

原创 【论文解读】VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking

3D物体检测器通常依赖于手工制作的方法,例如锚点或中心,并将经过充分学习的2D框架转换为3D。因此,稀疏体素特征需要通过密集预测头进行密集化和处理,这不可避免地需要额外的计算成本。在本文中,我们提出了VoxelNext来进行完全稀疏的3D物体检测。我们的核心见解是直接基于稀疏体素特征来预测对象,而不依赖于手工制作的方法。我们强大的稀疏卷积网络VoxelNeXt完全通过体素特征检测和跟踪3D物体。它是一个优雅而高效的框架,不需要稀疏到密集的转换或NMS后处理。

2024-07-18 14:27:25 929

原创 【论文解读】Multiagent Multitraversal Multimodal Self-Driving: Open MARS Dataset

大规模数据集推动了基于人工智能的自动驾驶汽车研究的最新进展。然而,这些数据集通常是从单个车辆一次性通过某个位置收集的,缺乏多智能体交互或同一地点的重复穿越。这些信息可以带来自动驾驶汽车感知、预测和规划能力的变革性增强。为了弥补这一差距,我们与自动驾驶公司May Mobility合作,提出了MARS数据集,该数据集统一了多Agent、多行程和多模式自动驾驶汽车研究的场景。更具体地说,MARS是由在特定地理区域内行驶的自动驾驶汽车车队收集的。每辆车都有自己的路线,不同的车辆可能会出现在附近的位置。

2024-07-03 16:07:51 946

原创 【论文解读】Planning-oriented Autonomous Driving

现代自动驾驶系统的特征是按顺序的模块化任务,即感知、预测和规划。为了执行广泛多样的任务并实现高级智能,现代方法要么为单个任务部署独立模型,要么设计具有独立头部的多任务范式。然而,他们可能会受到累积错误或任务协调不足的影响。相反,我们认为,为了追求最终目标,即自动驾驶汽车的规划,应该设计和优化一个有利的框架。针对这一点,我们重新审视感知和预测中的关键组成部分,并对任务进行优先级排序,使所有这些任务都有助于规划。我们介绍了统一自动驾驶(UniAD),这是一个最新的综合框架,将全栈驱动任务集成在一个网络中。

2024-06-22 17:06:45 751

原创 【论文解读】End-to-End Autonomous Driving through V2X Cooperation

通过V2X通信,协同利用自主车辆和基础设施传感器数据已成为先进自动驾驶的一种有前景的方法。然而,目前的研究主要集中在改进单个模块,而不是通过端到端的学习来优化最终的规划性能,导致数据潜力未得到充分利用。在本文中,我们介绍了UniV2X,这是一种开创性的协作式自动驾驶框架,可将跨不同视图的所有关键驾驶模块无缝集成到统一网络中。本文提出了一种稀疏密集混合数据传输和融合机制,用于车辆与基础设施的有效合作,具有以下三个优势:1)有效地同时增强智能体感知、在线地图和占用预测,最终提高规划性能。

2024-04-27 15:40:24 1017

原创 【论文解读】QUEST: Query Stream for Practical Cooperative Perception

合作感知通过提供额外的视点和扩展感知领域,可以有效地提高个体感知性能。现有的合作模式要么是可解释的(结果合作),要么是灵活的(特征合作)。在本文中,我们提出了查询协作的概念,以实现可解释的实例级灵活的特征交互。为了具体解释这一概念,我们提出了一个称为QUEST的合作感知框架,该框架允许查询流在代理之间流动。跨代理查询通过对共同感知实例的融合和对单个未感知实例的补充进行交互。

2024-04-26 21:56:14 1094

原创 【论文解读】Flow-Based Feature Fusion for Vehicle-Infrastructure Cooperative 3D Object Detection

协同利用自我车辆和基础设施传感器数据可以显著提高自动驾驶感知能力。然而,不确定的时间异步和有限的通信条件会导致融合偏差,限制基础设施数据的利用。为了解决车辆-基础设施协同3D (VIC3D)目标检测中的这些问题,我们提出了一种新的协同检测框架——特征流网络(FFNet)。FFNet是一个基于流的特征融合框架,它使用特征流预测模块来预测未来的特征并补偿异步。FFNet传输的不是从静止图像中提取的特征映射,而是利用顺序基础架构框架的时间一致性传输特征流。

2024-04-26 11:11:55 1059

原创 【论文解读】Bridging the Domain Gap for Multi-Agent Perception

现有的多智能体感知算法通常选择在智能体之间共享从原始感知数据中提取的深度神经特征,以实现精度和通信带宽限制之间的权衡。然而,这些方法假设所有智能体都有相同的神经网络,这在现实世界中可能不实用。当模型不同时,传输的特征会有很大的域间隙,导致多智能体感知的性能急剧下降。在本文中,我们提出了第一个轻量级框架来弥合多智能体感知的领域差距,该框架可以作为大多数现有系统的插件模块,同时保持机密性。我们的框架包括一个可学习的特征调整器,用于在多个维度上对齐特征,以及一个用于域自适应的稀疏跨域转换器。

2024-04-08 20:04:05 854

原创 【论文解读】COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked Vehicles

在过去的几年里,自动驾驶汽车的光学传感器和学习算法取得了巨大的进步。尽管如此,当今自动驾驶汽车的可靠性受到有限的视距传感能力和数据驱动方法在处理极端情况时的脆弱性的阻碍。随着电信技术的发展,车对车通信的协同感知已经成为在危险或紧急情况下增强自动驾驶的一种有前途的范例。我们介绍了COOPERNAUT,这是一种端到端学习模型,它使用跨车辆感知进行基于视觉的合作驾驶。我们的模型将激光雷达信息编码成紧凑的基于点的表示,可以通过真实的无线信道作为信息在车辆之间传输。

2024-04-06 15:32:44 939

原创 【论文解读】CoBEVT: Cooperative Bird‘s Eye View Semantic Segmentation with Sparse Transformers

鸟瞰图语义分割在自动驾驶的空间感知中起着至关重要的作用。尽管最近的文献在BEV地图理解方面取得了重大进展,但它们都是基于单智能体相机的系统。这些解决方案有时难以处理复杂交通场景中的遮挡或检测远处物体。车对车(V2V)通信技术使自动驾驶汽车能够共享传感信息,与单智能体系统相比,显著提高了感知性能和续航里程。在本文中,我们提出了CoBEVT,这是第一个通用的多智能体多摄像机感知框架,可以协同生成BEV地图预测。

2024-04-06 13:39:57 1176

原创 【论文解读】BEVFormer: Learning Bird‘s-Eye-View Representation from Multi-Camera Images via Spatiotemporal

3D视觉感知任务,包括基于多摄像头图像的3D检测和地图分割,对自动驾驶系统至关重要。在这项工作中,我们提出了一个称为BEVFormer的新框架,该框架通过时空变换器学习统一的BEV表示,以支持多个自动驾驶感知任务。简而言之,BEVFormer通过预定义的网格状BEV查询与空间和时间空间交互,利用空间和时间信息。为了聚合空间信息,我们设计了空间交叉注意力,即每个BEV查询从相机视图的感兴趣区域提取空间特征。对于时间信息,我们提出了时间自注意来递归地融合历史BEV信息。

2024-03-24 15:24:00 1200

原创 【论文解读】HM-ViT: Hetero-modal Vehicle-to-Vehicle Cooperative perception with vision transformer

车对车技术使自动驾驶汽车能够共享信息以看穿遮挡,大大提高了感知性能。然而,现有的工作都集中在同质交通上,车辆配备了相同类型的传感器,这大大阻碍了跨模态交互的协作规模和效益。在本文中,我们研究了多智能体异模态协同感知问题,其中智能体可能具有不同的传感器模态。我们提出了HM-ViT,这是第一个统一的多智能体异模态协同感知框架,可以协同预测具有不同数量和类型智能体的高度动态车对车(V2V)协作的3D对象。

2024-03-17 11:21:15 811

原创 【论文解读】Communication-Efficient and Collaboration-Pragmatic Multi-Agent Perception

多智能体协同感知作为一种新兴的驾驶场景应用,近年来受到广泛关注。尽管之前的努力取得了进展,但由于感知过程中的各种困境,包括通信冗余、传输延迟和协作异质性,仍然存在挑战。为了解决这些问题,我们提出了How2comm,这是一个协作感知框架,旨在寻求感知性能和通信带宽之间的权衡。我们的新颖之处在于三个方面。首先,我们设计了一种相互信息感知的通信机制,以最大限度地维持合作者共享的信息特征。采用空间信道滤波进行有效的特征稀疏化,实现高效的通信。

2024-03-12 14:46:58 1126

原创 【论文整理】自动驾驶场景中Collaborative Methods多智能体协同感知文章创新点整理

这篇文章主要想整理一下,根据时间顺序这些文章是怎么说明自己的创新点的,又是怎么说明自己的文章比别的文章优越的。显然似乎很多文章只是简单阐述了其他文章的思路,关于优点与不足之处,仍然很难讲得清楚。(那些用数字代表的文章,都是当前文章下的引文,大伙可以自行查找)

2024-03-07 14:45:52 964

原创 【论文解读】VIMI: Vehicle-Infrastructure Multi-view Intermediate Fusion for Camera-based 3D Object Detecti

在自动驾驶中,车辆基础设施协同3D对象检测(VIC3D)利用来自车辆和交通基础设施的多视图摄像头,提供了一个全球有利位置,具有丰富的道路条件语义背景,超越了单个车辆的视角。VIC3D中存在两个主要挑战:1)融合多视图图像时固有的校准噪声,这是由相机之间的时间异步引起的;2) 将2D特征投影到3D空间时的信息丢失。为了解决这些问题,我们提出了一种新的三维物体检测框架,即车辆基础设施多视图中间融合(VIMI)。

2024-03-05 09:48:05 758

原创 【论文解读】Robust Collaborative 3D Object Detection in Presence of Pose Errors

协同3D对象检测利用多个代理之间的信息交换,以在存在诸如遮挡之类的传感器损伤的情况下提高对象检测的准确性。然而,在实践中,由于定位不完善而导致的姿态估计误差会导致空间消息错位,并显著降低协作性能。为了减轻姿态误差的不利影响,我们提出了Align,这是一种新的混合协作框架,对未知的姿态误差具有鲁棒性。所提出的解决方案依赖于一种新的代理-对象姿态图建模来增强协作代理之间的姿态一致性。此外,我们采用多尺度数据融合策略来聚合多个空间分辨率的中间特征。

2024-03-04 14:39:46 789

原创 【论文解读】V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision Transformer

在本文中,我们研究了车辆到一切(V2X)通信的应用,以提高自动驾驶汽车的感知性能。我们提出了一个使用新型视觉转换器的V2X通信的鲁棒合作感知框架。具体而言,我们建立了一个整体注意力模型,即V2X-ViT,以有效地融合道路上的代理(即车辆和基础设施)的信息。V2X-ViT由异构多智能体自注意和多尺度窗口自注意的交替层组成,它捕捉了智能体之间的交互和每个智能体的空间关系。这些关键模块是在统一的Transformer架构中设计的,以应对常见的V2X挑战,包括异步信息共享、姿势错误和V2X组件的异构性。

2024-03-02 21:13:59 1373

原创 【代码解读】Opencood框架之PointPillarV2VNet

主要介绍了PointPillarV2VNet的一些代码

2024-02-28 15:33:11 997

原创 【代码解读】OpenCOOD框架之model模块(以PointPillarFCooper为例)

(紧扣PointPillarFCooper的框架结构,一点一点看代码)

2024-02-27 17:03:38 1275 10

原创 【论文解读】Uncertainty Quantification of Collaborative Detection for Self-Driving

在联网和自动驾驶汽车(CAVs)之间共享信息从根本上提高了自动驾驶协同目标检测的性能。然而,由于实际挑战,CAV 在目标检测方面仍然存在不确定性,这将影响自动驾驶中的后续模块,例如规划和控制。因此,不确定性量化对于 CAV 等安全关键系统至关重要。我们的工作是第一个估计协作目标检测的不确定性的工作。我们提出了一种新的不确定性量化方法,称为双 M 量化,它通过直接建模边界框每个角的多变量高斯分布来调整移动块引导 (MBB) 算法。

2024-02-22 22:19:24 783

原创 【论文解读】Latency-Aware Collaborative Perception

协作感知最近显示出提高单智能体感知感知能力的巨大潜力。现有的协同感知方法通常考虑理想的通信环境。然而,在实践中,通信系统不可避免地存在延迟问题,导致安全关键应用中潜在的性能下降和高风险,如自动驾驶。为了减轻不可避免的延迟造成的影响,从机器学习的角度来看,我们提出了第一个延迟感知协同感知系统,该系统从多个代理主动适应异步感知特征到同一个时间戳,提高了协作的鲁棒性和有效性。为了实现这种特征级同步,我们提出了一种新的延迟补偿模块SyncNet,该模块利用特征注意共生估计和时间调制技术。

2024-02-18 22:08:35 1076

原创 【论文解读】Point Transformer

自注意网络已经彻底改变了自然语言处理,并在图像分析任务(如图像分类和对象检测)方面取得了令人印象深刻的进展。受这一成功的启发,我们研究了自注意网络在三维点云处理中的应用。我们为点云设计了自注意层,并使用这些层来构建用于语义场景分割、对象部分分割和对象分类等任务的自注意网络。我们的Point Transformer设计改进了先前跨域和任务的工作。

2024-02-03 15:52:45 951

原创 【论文解读】OPV2V: An Open Benchmark Dataset and Fusion Pipeline for Perception with Vehicle-to-Vehicle...

在自动驾驶技术中,利用车对车通信来提高感知性能最近引起了相当大的关注;然而,由于缺乏合适的开放数据集用于基准测试算法,开发和评估合作感知技术变得困难。为此,我们提出了第一个用于车对车感知的大规模开放模拟数据集。它包含70多个有趣的场景、11464帧和232913个带注释的3D车辆边界框,这些场景来自CARLA的8个城镇和洛杉矶卡尔弗市的一个数字城镇。然后,我们用总共16个实现的模型构建了一个全面的基准,以评估几种信息融合策略(即早期、晚期和中期融合)与最先进的激光雷达检测算法。

2024-02-02 15:19:13 1396 5

原创 【论文解读】Multi-Robot Collaborative Perception with Graph Neural Networks

多机器人系统,如空中机器人群,通过实现代理之间的合作,自然适合于在多个任务中提供额外的灵活性、弹性和鲁棒性。为了提高自主机器人决策过程和态势感知能力,多机器人系统必须协调其感知能力,有效地收集、共享和融合代理之间的环境信息,以获得适合上下文的信息或获得传感器噪声或故障的弹性。在本文中,我们提出了一种通用图神经网络(GNN),其主要目标是增加多机器人感知任务、单机器人推理感知精度以及对传感器故障和干扰的弹性。我们表明,所提出的框架可以解决单目深度估计和语义分割等多视图视觉感知问题。

2024-02-01 11:24:32 1016

原创 【论文解读】V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and Prediction

在本文中,我们探索了使用车对车(V2V)通信来提高自动驾驶车辆的感知和运动预测性能。通过智能聚合来自附近多辆车辆的信息,我们可以从不同的角度观察同一个场景。这使我们能够透过遮挡物,并在远距离探测到物体,而在远距离观察到的物体非常稀疏或根本不存在。我们还证明了我们发送压缩深度特征图激活的方法在满足通信带宽要求的同时达到了很高的精度。

2024-01-30 22:33:30 1549

原创 【论文解读】Collaboration Helps Camera Overtake LiDAR in 3D Detection

与基于 LiDAR 的检测系统相比,仅相机 3D 检测提供了一种经济的解决方案,具有简单的配置来定位 3D 空间中的对象。然而,一个主要的挑战在于精确的深度估计,因为输入中缺乏直接的3D测量。许多以前的方法试图通过网络设计来改进深度估计,例如可变形层和更大的感受野。这项工作提出了一个orthogonal direction,通过引入多智能体协作来改进仅相机的 3D 检测。我们提出的仅协作相机的 3D 检测 (CoCa3D) 使代理能够通过通信相互共享互补信息。

2024-01-30 16:41:28 1358

原创 【论文解读】CoFF: Cooperative Spatial Feature Fusion for 3D Object Detection on Autonomous Vehicles

为了减少传输的数据量,最近提出了一种基于特征图的融合方法,作为自动驾驶汽车协同三维目标检测的实用解决方案。然而,物体检测的精度可能需要显著提高,尤其是对于远处或被遮挡的物体。为了解决自动驾驶汽车和人类安全的这一关键问题,我们提出了一种用于自动驾驶汽车的协作空间特征融合(CoFF)方法,以有效地融合特征图,从而实现更高的3D对象检测性能。特别地,CoFF基于接收到的特征图提供了多少新的语义信息来区分特征图之间的权重,以进行更有指导的融合。它还增强了与远处/被遮挡物体相对应的不明显特征,以提高其检测精度。

2024-01-30 15:54:27 764

原创 【论文解读】Collaborative Perception in Autonomous Driving: Methods, Datasets and Challenges(协同感知综述)

协同感知对于解决自动驾驶中的遮挡和传感器故障问题至关重要。近年来,对协同感知新工作的理论和实验研究急剧增加。然而,到目前为止,很少有评论专注于系统协作模块和大规模协作感知数据集。这项工作回顾了该领域最近的成就,以弥合这一差距并激发了未来的研究。我们首先简要概述协作方案。之后,我们系统地总结了理想场景和现实世界问题的协作感知方法。前者侧重于协作模块和效率,后者致力于解决实际应用中的问题。此外,我们提出了大规模的公共数据集,并总结了这些基准上的定量结果。

2024-01-29 19:03:37 1637

原创 roll、pitch、yaw(翻滚、俯仰、偏航)的区别

角度即为旋转的度数,从原点往外看,顺时针旋转为正。

2024-01-29 10:38:09 2334 1

原创 【论文解读】Keypoints-Based Deep Feature Fusion for Cooperative Vehicle Detection of Autonomous Driving

研究车辆间共享集体感知信息(CPM)以减少遮挡,从而提高自动驾驶的感知精度和安全性。然而,高度精确的数据共享和低通信开销对集体感知来说是一个巨大的挑战,特别是当联网和自动驾驶车辆之间需要实时通信时。本文提出了一种基于三维目标检测器PV-RCNN的基于关键点的深度特征融合框架,称为fusion PV-RCNN(简称FPV-RCNN),用于集体感知。为了压缩CPM大小,解决多车数据融合问题,我们引入了高性能的边界框建议匹配模块和关键点选择策略。

2024-01-22 15:23:16 918

原创 【论文解读】PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection

我们提出了一种新的高性能3D对象检测框架,称为PointVoxel RCNN(PV-RCNN),用于从点云中精确检测3D对象。我们提出的方法深度集成了三维体素卷积神经网络(CNN)和基于PointNet的集合抽象,以学习更具判别力的点云特征。它利用了3D体素CNN的高效学习和高质量建议以及基于PointNet的网络的灵活感受野。具体而言,所提出的框架通过新颖的体素集抽象模块将具有3D体素CNN的3D场景总结为一小组关键点,以节省后续计算并对代表性场景特征进行编码。

2024-01-22 11:34:44 1516 1

原创 【论文解读】What2comm: Towards Communication-efficient Collaborative Perception via Feature Decoupling

多智能体协同感知作为一种新兴的驾驶场景应用,近年来受到越来越多的关注。尽管在以前的方法中取得了进步,但由于冗余的通信模式和脆弱的协作过程,挑战仍然存在。为了解决这些问题,我们提出了What2comm,这是一种端到端的协作感知框架,用于实现感知性能和通信带宽之间的权衡。我们的新颖之处在于三个方面。首先,我们设计了一种基于特征解耦的高效通信机制,在异构代理之间传输排他性和通用性的特征图,以提供感知上的整体消息。

2024-01-20 10:44:29 992

原创 【论文解读】Complementarity-Enhanced and Redundancy-Minimized Collaboration Network for Multi-agent Percep

多智能体协同感知依赖于共享感官信息来提高感知准确性和鲁棒性,并扩展覆盖范围。代理之间的协作共享信息应该在冗余和互补性之间达到平衡,从而创建一个简洁而复合的表示。为此,本文提出了一种互补增强冗余最小化协作网络(CRCNet),用于有效指导和监督共享特征之间的融合。我们的关键新奇之处在于两个方面。首先,通过利用对比损失迫使每个融合特征带来边际收益,这可以监督我们的模型选择互补特征。其次,利用互信息来衡量融合特征对与互信息上界之间的依赖关系,鼓励独立性,从而引导我们的模型选择非冗余特征。

2024-01-19 18:48:24 891

原创 【论文解读】Split to Be Slim: An Overlooked Redundancy in Vanilla Convolution(SPConv)

为了减少推理加速模型的冗余,已经提出了许多有效的解决方案。然而,常见的方法大多侧重于消除不太重要的过滤器或构造高效的操作,而忽略了特征映射中的模式冗余。我们揭示了一个层中的许多特征映射共享相似但不相同的模式。然而,很难识别具有相似模式的特征是多余的还是包含必要的细节。因此,我们不是直接去除不确定的冗余特征,而是提出了一种基于分裂的卷积操作,即SPConv,以容忍具有相似模式但需要较少计算的特征。

2024-01-17 11:09:19 950

原创 【论文解读】Spatio-Temporal Domain Awareness for Multi-Agent Collaborative Perception(SCOPE))

与单智能体感知相比,多智能体协同感知作为车辆与万物通信的潜在应用,可以显著提高自动驾驶汽车的感知性能。然而,在这一新兴研究中实现实用的信息共享仍然存在一些挑战。在本文中,我们提出了一种新的协同感知框架SCOPE,它以端到端的方式聚合了道路代理的时空感知特征。具体来说,SCOPE有三个明显的优势:i)它考虑时间上下文的有效语义线索来增强目标代理的当前表示;Ii)聚合来自异构agent的感知关键空间信息,并通过多尺度特征交互克服定位误差;

2024-01-16 19:47:02 1040

原创 【论文解读】Where2comm: Communication-Efficient Collaborative Perception via Spatial Confidence Maps

多智能体协同感知可以使智能体之间通过通信共享互补信息,从而显著提升感知性能。它不可避免地导致感知性能和通信带宽之间的基本权衡。为了解决这一瓶颈问题,我们提出了一个反映感知信息空间异质性的空间置信度图。它使代理只能共享空间稀疏但感知上至关重要的信息,有助于在何处进行通信。基于这一新颖的空间置信度图,我们提出了一个高效沟通的协同感知框架Where2comm。where2comm有两个明显的优势:i)它考虑语用压缩,通过关注感知关键领域,使用更少的通信来实现更高的感知性能;

2024-01-16 11:08:51 1341 6

原创 【论文解读】When2com: Multi-Agent Perception via Communication Graph Grouping

虽然单智能体感知已经取得了重大进展,但由于覆盖范围和鲁棒性等优点,许多应用需要多个传感智能体和跨智能体通信。因此,开发以分布式和带宽高效的方式支持多智能体协作感知的框架至关重要。在本文中,我们解决了协作感知问题,其中一个代理需要执行感知任务,并且可以与同一任务中的其他代理通信和共享信息。具体来说,我们通过学习构建沟通小组和决定何时沟通,提出了一个沟通框架。我们证明了我们的框架在两个不同感知任务上的可推广性,并表明它在保持卓越性能的同时显著降低了通信带宽。

2024-01-15 15:33:42 1078

原创 【论文解读】Who2com: Collaborative Perception via Learnable Handshake Communication

在本文中,我们提出了协作感知问题,其中机器人可以以可学习的方式将其局部观察与相邻代理的局部观察相结合,以提高感知任务的准确性。与机器人和多智能体强化学习中的现有工作不同,我们将该问题表述为必须以带宽敏感的方式在一组智能体之间共享学习信息,以优化场景理解任务,如语义分割。受网络通信协议的启发,我们提出了一种多阶段握手通信机制,其中神经网络可以学习压缩每个阶段所需的相关信息。具体而言,具有降级传感器数据的目标代理发送压缩请求,其他代理以匹配的分数进行响应,并且目标代理确定与谁连接(即,从谁接收信息)。

2024-01-15 11:06:15 979 2

原创 JAVA入门(知识梳理)

适合有一定C和C++基础,梳理了一下代码的基本使用。可以搭好环境后自行操作一波,印象会更深一些。

2023-01-24 16:23:58 1382 2

原创 我的创作纪念日2022.1.21

以思维为笔,保持清醒,期待一气呵成的畅快淋漓

2023-01-24 16:10:39 129

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除