基于深度强化学习的V2V协同感知中的传输信息选择

论文标题:Cooperative Perception with Deep Reinforcement Learning for Connected Vehicles
发表期刊/会议:IEEE Intelligent Vehicles Symposium (IV2020)
数据集:V2V协同仿真平台CIVS( https://github.com/BlueScottie/SUMOCarla-integration)

协同感知中的信息选择问题:协同感知严重依赖V2V通信,当道路上有许多无人车造成拥堵时,多辆车可能会重复发送关于同一物体的冗余信息。由于网络资源是有限的,当车辆将所有感知数据纳入协同感知信息时,一些信息可能会由于严重的信道拥堵而丢失。 为了保持网络的可靠性,车辆需要智能地选择要传输的数据,以节省网络资源,将资源分配给重要的数据包。

强化学习

对每辆车使用深度强化学习根据本地车载传感器捕捉到的周围环境,来智能地识别值得传输的感知数据片段,以决定每辆车辆需要传输哪些信息:
在这里插入图片描述
State:描述了agent的当前情况;Action:agent在每个状态下可以做的事情;Reward:描述了agent所采取的行动从环境中得到的积极或消极反馈。强化学习的总体目标是学习以获得一个使总奖励最大化的深度学习模型。

方法

在这里插入图片描述
1)每个车辆通过V2X通信从相邻的车辆/路边设施接收合同感知信息(CPM),并融合自身多个车载传感器的信息(如摄像头、LiDAR和雷达)。
2)ego车辆将收到的感知数据进行全局融合。
3)将全局融合后的信息投影到用于强化学习的grid-based container中,表示当前时刻的状态st。

每个网联车辆都使用基本安全信息(BSM)和协同感知信息(CPM)进行V2V通信。BSM包含自车的位置、速度、加速度和方向。CPM包含检测到的物体的相对位置、方向和物体类型。

Deep Q-network(深度强化学习中一种价值学习的方法)

采用一个神经网络Q(s,a;w) 计算agent在某一时刻的状态下s (s∈S),可能采取动作 a (a∈A)能够获得的收益Q值。
在Deep Q-Network中,输入是agent的状态,输出是该状态下采取的行动的Q值。在训练期间,不断计算和更新Q值,agent选择最佳行动以最大化奖励:
在这里插入图片描述
在这里插入图片描述
其中,α是学习率,rt是奖励,γ是折扣系数,max Q(st+1, a)是下一个行动的估计奖励。

由于状态和行动的数量,Q表的大小可能变得巨大,因此在DeepQ-Network中使用CNN,而不是Q-表。采用的CNN是由3个卷积层和2个全连接层组成。

Deep Q-Learning and Network Model

1)确定用于Deep Q-Learning 的协同感知的状态、行动和奖励:
状态state: 基于圆形投影和网络拥堵程度来确定。
圆形投影:视场(FoV)被分割成5×3个网格。每个网格为13种投影类型中的一种:
在这里插入图片描述
局部感知:
(i) 当网格中没有移动/静态物体时,网格被标记为空。
(ii) 当网格中存在由本地车载传感器检测到的物体时,网格被标记为被占用。
(iii) 当网格中存在物体被遮挡时,网格被标记为被遮挡。

基本安全信息BSM传输(自车的位置、速度、加速度和方向):所有车辆都会按照标准规定将其作为安全信标进行传输。

协同感知信息CPM传输(检测到的物体的相对位置、方向和物体类型):网络负载ψ作为状态st的一部分。

行动action:A={传输,丢弃},当行动为传输时,agent就会广播CPM;当行动为丢弃时,agent就不会发送CPM。行动是由deep-Q 网络(CNN)的输出Q值所决定的。

奖励/收益 reward:奖励机制rt,ω,α,β,其中有1个奖励和3个惩罚。rt,ω,α,β是在时间t给出的奖励,用于从发送agent α到接收agent β的通信中的检测目标对象ω。
在这里插入图片描述
首先,λlocal是一个二进制奖励,当目标对象ω没有被接收车辆检测到时,它就变成1。
µCPM、µhist和µnetcong是负常数,是惩罚措施。Θt,ω表示在时间t 纳入了检测目标对象ω信息的CPM的数量。 τω是接收车辆β的局部感知检测到的物体ω的最新时间戳。Ct,β是接收车辆β在网络拥堵程度。

总结

1)提出了一种用于协同感知的深度强化学习方法,以减轻网络负荷。
2)设计和开发了一个协同智能车仿真(CIVS)平台,其整合了多个软件组件,以评估traffic模型、车辆模型、通信模型和物体分类模型。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 基于YOLO(v2)深度学习的车辆检测与识别的MATLAB源码是使用MATLAB编程语言实现的,目的是通过训练深度神经网络实现对车辆的自动检测与识别。 YOLO(v2)是一种目标检测算法,其全称为You Only Look Once,可以实时地从图像检测多个目标。在车辆检测与识别任务,YOLO(v2)通过划分图像为多个网格单元,并根据每个单元内的特征预测出车辆的边界框、类别和置信度。 MATLAB源码的实现过程主要包括以下几个步骤: 1. 数据准备:收集和准备用于训练的车辆图像和对应的标签数据。标签数据包括车辆边界框的位置和类别信息。 2. 网络设计:设计一个基于YOLO(v2)网络结构的深度神经网络。该网络包括卷积层、池化层、全连接层、激活函数等。 3. 权重初始化:使用预训练的权重对网络进行初始化,以加快网络的训练速度和提高准确度。 4. 数据增强:对训练数据进行随机平移、旋转、缩放等增强操作,增加训练样本的多样性和数量。 5. 损失函数定义:定义用于训练的损失函数,包括边界框定位损失、类别预测损失和置信度损失。 6. 训练网络:使用训练数据对网络进行训练,并根据损失函数对网络参数进行更新。 7. 测试与评估:使用测试数据对网络进行评估,计算检测与识别的准确率、召回率和F1分数等指标。 8. 模型应用:将训练好的模型应用于新的图像,实现车辆的检测与识别。可以通过调整置信度的阈值来控制检测的精度和召回率。 基于YOLO(v2)深度学习的车辆检测与识别的MATLAB源码可以通过搜索相关资源或参考开源项目获得,也可以根据以上步骤进行自行实现。在使用源码时,需要注意安装相应的深度学习库,如MATLAB的Deep Learning Toolbox,以及确保计算机具备足够的计算资源和显卡支持。 ### 回答2: YOLO v2是一种基于深度学习的目标检测算法,能够在图像实时地检测和识别多个目标。通过使用YOLO v2算法,我们可以编写MATLAB源码来实现车辆的检测和识别。 首先,在MATLAB导入YOLO v2的深度学习模型,并将其加载到工作空间。然后,我们需要准备一些车辆图像数据集,并将其分为训练集和测试集。接下来,我们使用数据集对模型进行训练,以便让模型能够学习和识别车辆。 在模型训练完成后,我们可以使用训练好的模型来进行车辆的检测和识别。首先,我们将一张待检测的图像输入到模型,模型将输出图像所有检测到的目标的位置和类别。然后,我们可以根据输出的结果在图像上绘制边界框和类别标签,以便更直观地观察识别结果。 在编写源码时,我们需要考虑一些细节。首先,我们需要设置模型的超参数,如输入图像的尺寸、训练的迭代次数等。其次,我们需要编写代码来导入和预处理图像数据集,并将其分为训练集和测试集。然后,我们需要定义模型的结构和损失函数,并选择合适的优化算法来训练模型。最后,我们可以编写代码来加载训练好的模型,并将其应用于新的图像数据集。 总之,基于YOLO v2的深度学习检测识别车辆的MATLAB源码可以实现车辆的实时检测和识别。通过编写源码,我们可以导入和训练YOLO v2模型,并使用训练好的模型来对车辆图像进行检测和识别。这样,我们可以方便地应用该算法于车辆相关应用。 ### 回答3: YOLO v2(You Only Look Once v2)是一种深度学习模型,用于车辆检测和识别。其主要特点是快速和准确,能够实时识别图像的车辆。 基于YOLO v2的车辆检测和识别的MATLAB源码主要包括以下步骤: 1. 数据集准备:收集并整理包含车辆的图像数据集,同时制作标签信息,标注车辆的位置和类别。 2. 数据预处理:对图像进行预处理,如调整大小、翻转、旋转等操作,以提高模型对不同尺度和变化的适应能力。 3. 模型训练:使用YOLO v2的网络架构和深度学习框架(如MATLAB的Deep Learning Toolbox)进行模型训练。训练过程包括输入前向传播和后向传播,通过优化算法(如梯度下降)调整模型参数,使其逐渐收敛到最佳状态。 4. 模型评估:使用评估数据集对训练好的模型进行评估,计算检测和识别的准确率、召回率和F1值等指标,以评估模型的性能。 5. 结果可视化:将模型在测试图像上的检测和识别结果进行可视化展示,用不同的边界框和类别标签标识出检测到的车辆。 除了以上步骤,还有一些细节需要注意,如数据集的平衡性、模型的超参数调优、数据增强等。此外,为了提高模型的性能和泛化能力,还可以考虑使用预训练的权重参数、引入多尺度检测和注意力机制等技巧。 总结起来,基于YOLO v2的深度学习检测识别车辆的MATLAB源码主要包括数据准备、数据预处理、模型训练、模型评估和结果可视化等步骤,通过优化模型参数和技巧,提高检测和识别的准确率和实时性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值