【多智能体强化学习】

参考链接
多智能体深度强化学习综述与批判.2019
万字长文:详解多智能体强化学习的基础和应用

与单智能体强化学习的区别

多智能体强化学习的难点:

  • 环境的不稳定性:决策相互影响
  • 信息局限性:单个智能体难以获得全局信息
  • 目标一致性:各智能体的目标可能是获得总体最优也可能是个体最优,如何定义奖励函数是个问题
  • 可扩展性:大规模多智能体系统对算力产生要求
    在这里插入图片描述
    增加了新的学习目标(模型与模型之间的交互)

💡将其他智能体考虑为环境的一部分是否可行?
不可行,模型的不是稳态的,模型之间是策略是相互影响的。

【回顾】Q-Learning:价值学习算法, Q ( s , a ) Q(s,a) Q(s,a)是在某一时刻的 s 状态下(s∈S),采取 动作a (a∈A)动作能够获得收益的期望,主要思想是将State与Action构建成一张Q-table来存储Q值,然后根据Q值来选取能够获得最大的收益的动作。

问题定义

在这里插入图片描述

在博弈论视角下,序贯决策的三种问题:
  • 马尔可夫决策过程:单智能体 多状态
  • 重复博弈:多智能体 单一状态
  • 随即博弈(马尔可夫博弈):多智能体 多状态

多智能体强化学习属于随机博弈

随机博弈

在这里插入图片描述
通过数学工具进行描述
在这里插入图片描述在这里插入图片描述

基本方法

按照智能体之间关系分类

完全竞争关系

minimax Q-Learning 零和随机博弈

按照是否中心化分类

在这里插入图片描述

完全中心化方法
1. 整体智能体

用于合作任务
在这里插入图片描述
计算量指数级增长,计算难度太大

2. 纳什Q-Learning

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

完全去中心化方法

鸵鸟算法
在这里插入图片描述
在这里插入图片描述
注:PPO:大概类似actor-critic方法
在这里插入图片描述

中心化训练 去中心化执行

类似于:训练的时候场上有教练指导大家,告诉大家什么动作是对的什么是不对的,真正比赛的时候,教练离场
在这里插入图片描述

数学模型

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

  • 6
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值