MADDPG——环境搭建(多智能体强化学习)

首先,我是在自己的notebook上装的,windows10+anaconda+pycharm。
先感谢大神的blog:https://zhuanlan.zhihu.com/p/41954025
如果前面没搭建好,可以根据上述大神的进行前面的搭建,这里我只说一下前面已经打好了,也down下来两个资源了
两个资源一搜就能找到
1.下载加存放:我是下载下来之后,先将两个文件夹都放到了设置好的环境中(pycharm的一个project目录下):
两个资源
2. 在这里插入图片描述
在pycharm的内置terminal中,先cd到 multiagent-particle-envs-master 中,
执行 pip install -e .
等待安装完成后,输入测试指令: bin\interactive.py --scenario simple.py
3.若出现游戏画面,则该环境配置成功,继续下一部分。如果出错,请百度或评论咨询。
在此之前,确保将multiagent-particle-envs-master文件夹中的 multiagent 放入到maddpg-master的文件夹中。
在pycha

  • 3
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
多智能体强化学习是指在一个环境中存在多个智能体,每个智能体都有自己的观察状态和可以执行的动作,并且它们通过相互作用来实现某种任务的学习过程。在构建多智能体强化学习系统时,我们需要考虑每个智能体的决策策略、交互方式以及如何协调它们的行为。 引用中提到了传统算法在多智能体环境下的一些短板。传统的Q学习算法在多智能体环境中不适用,因为每个智能体的策略都在发生变化,导致环境的不稳定性,从而带来学习稳定性的挑战。经典的DQN算法也不适用,因为不知道其他智能体的状态会导致自身状态转移的不确定性,阻止了以往经验重放的直接使用。此外,策略梯度(PG)算法在多智能体环境中也不适用,因为智能体数量的增加会加剧固有的方差大的问题。 为了解决这些问题,引用提到了一种名为MADDPG(Multi-Agent Deep Deterministic Policy Gradient)的算法。MADDPG采用了集中式训练和分散式执行的框架。在训练时,每个智能体的Critic接收除了自身的状态-动作信息外,还包括其他智能体的动作和状态信息。而在应用时,只利用局部信息即可给出最优动作。这种框架的优势是不仅适用于合作,还适用于竞争性或合作竞争混合的情况。此外,MADDPG算法不需要知道环境的动力学模型以及特殊的通信需求。 因此,在构建多智能体强化学习系统时,我们可以考虑使用MADDPG算法,采用集中式训练和分散式执行的框架,使智能体能够通过相互协作或竞争来学习并完成任务。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [多智能体强化学习在智能工厂在线调度中应用](https://blog.csdn.net/crazy_girl_me/article/details/123138099)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [多智能体强化学习算法MADDPG(一:由单智能体强化学习多智能体强化学习)](https://blog.csdn.net/qq_40089637/article/details/108377307)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值