多智能体强化学习环境

本文介绍了多个用于多智能体强化学习的环境,包括星际争霸2、Multi-agent Particle Environment、Deepmind MAS Environment等,这些环境在研究智能体间的合作与竞争、通信以及全局状态共享方面具有重要意义。此外,还提及了Google Research Football、Neural MMO、CityFlow等不同类型的多智能体环境,为智能体在复杂任务中的学习和交互提供了平台。
摘要由CSDN通过智能技术生成

环境是强化学习的核心要素之一。不同的环境一直是研究新的强化学习算法的动力。但是让智能体和真实环境交互的代价是很大的,不但费时费力,甚至有的时候根本不可能进行交互。

现在的多智能体强化学习和强化学习早期境遇很像,只有较少的环境可用。另外在不同的智能体之间分享信息的设置范围可能很广,有些环境涉及通信,有些共享联合奖励,有些共享全局状态。

星际争霸

作为一款复杂的即时战略游戏,星际争霸2受到了很大的关注,《Learning to communicate with deep multi-agent reinforcement learning》《QMIX: monotonic value function factorisation for deep multi-agent reinforcement learning》等很多论文都使用星际争霸2作为环境。

注:这里介绍的环境SMAC与Deepmind的pysc2有所不同,它更关注分散的微观管理方法,游戏中的每个单位都是受单独的强化学习智能体控制。

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值