干扰管理学习日志15-------强化学习_DDPG_车联网_容量和_交付率


本文是对论文《Deep Deterministic Policy Gradient (DDPG)-Based Resource Allocation
Scheme for NOMA Vehicular Communications》的分析,若需下载原文请依据前方标题搜索,第一作者为YI-HAN XU

一、文章概述

这篇文章中,作者使用强化学习DDPG算法,辅助车载通信系统中的基站、车辆选择载波频段、分配功率值,最终达到最大化车辆与基站间信道容量和速率、最优车辆与车辆间交付概率的效果。

二、系统环境

在这里插入图片描述
系统环境如上图所示,车联网系统中,存在V2V(车辆与车辆)和V2I(车辆与基站)间的通信任务,它们之间会产生相互的干扰。

三、系统模型

1.V2I通信(信道容量)

在这里插入图片描述
车辆与基站间通信表征为信道容量之和。

2.V2V通信(延迟与可靠性)

在这里插入图片描述
车辆与车辆间通信表征为单位时间内的有效载荷。

四、算法分析(强化学习DDPG)

1.输入状态

输入状态主要包括 各载波频段的功率信息、信道状态信息(主要指信道衰落)与车辆处接收信息的缓冲队列长度。

2.输出动作

输出动作为系统内单位对于载波频段的选择与功率分配情况。

3.环境反馈

环境反馈为系统模型中所提到的V2I信道容量与V2V交付概率。

五、性能表征

1.信道容量

在这里插入图片描述

2.交付概率(1Mb/s)

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@白圭

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值