基于多智能体深度强化学习的体系任务分配方法

文章对比了集中式与分布式决策,并聚焦于多智能体强化学习中的MADDPG算法在分布式决策场景下的应用。通过设计状态空间、动作空间和奖励函数,构建了作战体系的任务分配模型。实验部分展示了集中式与分布式训练的智能体奖励曲线,证明了分布式决策的有效性。
摘要由CSDN通过智能技术生成

源自:指挥与控制学报

作者:林萌龙, 陈涛, 任棒棒, 张萌萌, 陈洪辉

摘 要

1  背景

1.1   集中式决策VS分布式决策

图1集中式决策示意图

1.2    多智能体强化学习

2   问题描述

2.1    场景描述

图2分布式决策场景下的体系任务分配

 2.2   状态空间、动作空间与奖励函数设计

3  基于MADDPG算法的作战体系任务分配模型

3.1   基于MADDPG任务分配算法框架

3.2   Actor网络结构

标题图6 Actor网络结构

3.3  Critic网络结构

图7 Critic网络结构

4  实验

4.1  对比算法设置

4.2   实验环境

4.3   实验结果分析

图8集中式训练的多智能体强化学习算法训练的智能体平均奖励曲线

图9分布式训练的多智能体强化学习算法训练的智能体平均奖励曲线

5  结论

声明:公众号转载的文章及图片出于非商业性的教育和科研目的供大家参考和探讨,并不意味着支持其观点或证实其内容的真实性。版权归原作者所有,如转载稿涉及版权等问题,请立即联系我们删除。

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值