论文理解【RL - MARL】—— 【CoPO】Learning to Simulate SDP System with Coordinated Policy Optimization


  • 摘要:自驱动粒子系统(Self-Driven Particles System)是日常生活中常见的一类 multi-agent 系统,例如蜂群、车流等都是此类系统。在 SDP 系统中,每个 agent 都追求自己的目标,并不断改变其与附近 agent 的合作或竞争行为。为这种 SDP 系统手动设计控制器是很耗时的,而且这样得到的行为通常既不真实,也缺乏泛化性。因此,模拟 SDP 系统仍然具有挑战性。强化学习是自动化 SDP 控制器开发的一种吸引人的替代方法。但是,以前的多智能体强化学习(MARL)方法将 agent 间的关系固定为队友或敌人,而 SDP 系统中,即使在同一个 episode 中,各个 agent 的角色也会在合作和竞争之间来回变化。用 MARL 方法模拟SDP 的一个关键的挑战就在协调代理的行为的同时仍然最大化个人目标。在这项工作中,我们用交通模拟作为测试环境,开发了一种称为协调策略优化( Coordinated Policy Optimization, COPO)的新型MARL方法,该方法结合社会心理学原理来学习 SDP 神经网络控制器。实验表明,与 MARL Baseline 相比,我们提出方法在多个指标中表现出卓越的性能。经过训练的车辆明显表现出复杂而多样化的社会行为,群体的交通效率和安全性都得到改善。演示视频和源代码可在以下网址获得: https://decisionforce.github.io/CoPO/

1. 背景

1.1 自驱动粒子系统(SDP)

  • 自驱动粒子系统(SDP) 是自然界中很常见的一种多智能体系统,这种系统中各个主体都在追求自己的目标,并通过简单的局部交互相互作用,虽然个体的动作很简单,但整个群体却能在宏观上呈现出复杂的整体行为。鱼群、人流车流等都是 SDP 系统,以下是一些例子
    在这里插入图片描述
  • SDP 系统有以下几个特点
    1. 很多个体组成的群体(多智能体)
    2. 个体间是相同或高度类似的( → \to 策略相似 → \to 共享网络参数)
    3. 个体只和其周围的个体相互作用(只考虑局部交互)
    4. 个体间的关系时而是竞争关系,时而是合作关系(交互关系会时变,考虑将其参数化描述)
    5. 无数个体的简单行为,能使群体在宏观上呈现出复杂的行为(“自下而上” 设计控制器)

1.2 多智能体强化学习(MARL)

  • 多智能体强化学习(MARL)是强化学习领域的一个重要分支,本节首先简单介绍 MARL 问题设定和特点,然后针对 CoPO 论文中使用的训练架构和平均场思想进行介绍

  • 多智能体系统包含有多个智能体,多个智能体共享环境,智能体之间相互影响。一个智能体的动作会改变环境状态,从而影响其他智能体
    在这里插入图片描述

  • 多个智能体间的竞争关系在博弈论中已经有了很多研究,而 MARL 语境下 agent 间的关系更加复杂,主要有以下四种

    • MARL 中 agent 间的四种常见关系在这里插入图片描述
      1. 完全合作关系:智能体的利益一致,获得的奖励相同,有共同的目标。这时智能体的决策要考虑到
        队友的策略,和队友相互配合,而不是个人英雄主义
      2. 完全竞争关系:某个智能体获得收益会导致某些的智能体亏损。这时智能体的决策要考虑到对手的策略,寻找其弱点
      3. 合作竞争的混合:多个智能体之间分成多组,组内智能体的利益一致,各个组之间处于竞争关系
      4. 利己主义:一个智能体的动作会改变环境,从而使得别的智能体受益或者受损,也就是说智能体只想最大化自身的累计奖励,而不在乎他人收益或者受损。这时智能体的决策不需要考虑其他智能体
    • agent 间关系不同,相应的目标函数形式、学出的策略、网络参数共用情况等也会有所不同

    对于某个特定 agent 来说,某种程度上可以把其他 agent 看做环境的一部分,任意 agent 的价值函数都会受到其他 agent 策略的影响,因此原先 RL 中关于奖励、价值、状态等概念的定义都要相应变化。因为本文不是对 MARL 的详细入门文章,这里不再具体说明

1.2.1 中心化训练 去中心化决策(centralized training and decentralized execution framework, CTDE)

  • 中心化训练 & 去中心化决策(centralized training and decentralized execution framework, CTDE framework)是 MARL 中三种训练架构之一,本论文也使用了这种思想

    Note:由于本论文考虑的是连续控制的模拟 SDP 系统,这种系统具有 agent 都相同或高度类似的特点,因此所有 agent 的价值网络和策略网络都是共用参数的(即无论系统中有多少 agent,训练网络的数量都一样)。这种设定对于价值网络的处理和纯合作型 MARL 一致(共用价值网络,不共用策略网络),因此下面说明的三种架构是针对纯合作型 MARL 而言的

  • 在 MARL 的常见设定下,每个 agent 通常只能观察到环境的一部分(i.e 部分可观测),但网络训练(训练过程)和决策时(决策过程)又常常需要全局状态,这个全局状态是由所有 agent 的观测组合而成的,一旦需要全局状态,就必须让 agent 间互相通信,这往往成本较高,针对通信问题的不同处理方法归纳出 MARL 的三种架构
    在这里插入图片描述
    1. 用 “完全中心化” 作出的决策最好,但是速度最慢,在很多问题中不适用
    2. “去中心化训练 + 去中心化决策” 方案为了免训练和决策的通信,需要对策略网络和价值网络都做近似,效果较差
    3. “中心化训练 + 去中心化决策” 方案虽然在训练中需要通信,但是决策的时候不需要通信,可以做到实时决策,是三种架构中最实用的
  • 下面给出 “中心化训练 + 去中心化决策” 架构的示意图
    在这里插入图片描述

1.2.2 平均场策略优化(mean field policy optimization, MFPO)

  • CoPO 论文借鉴了来自 2018 年论文 Mean field multi-agent reinforcement learning 的平均场思想,这个 trick 主要是用于解决 agent 数量增加时复杂度指数上升的问题
  • 大多数 MARL 方法通常只适用于 agent 数量较少的情况,当 agent 数量大幅增加时,由于维度的大幅度增加和智能体之间互动的复杂性增大,学习变得难以进行。MFPO 的核心思想是:对于某个 agent,把其他所有 agent 对它造成的影响看做由一个 “虚拟 agent” 造成所的,对于这个特定 agent 而言,该虚拟 agent 等价于其他所有 agent (或其一定邻域内的所有 agent) ,这样就把许多 agent 交互转变为两个 agent 交互
  • MFMARL 这篇的原文主要是从 action 角度考虑,原先我们估计的 agent j 的价值函数 Q j ( s , a ) Q_j(s,\pmb{a}) Qj(s,aa) 包含所有 agent 的联合动作 a \pmb{a} aa,当 agent 变多时, a \pmb{a} aa 的维度会变得非常大,导致学习效果很差。MFMARL 首先把智能体的 Q Q Q 函数重新定义为仅受它和相邻 agent 影响,即
    Q j ( s , a ) = 1 N j ∑ k ∈ N ( k ) Q j ( s , a j , a k ) Q_j(s,\pmb{a}) = \frac{1}{N_j} \sum_{k\in N(k)}Q_j(s,a_j,a_k) Qj(s,aa)=Nj1kN(k)Qj(s,aj,ak) 其中 N ( j ) N(j) N(j) 表示 agent j 的 agent, N j = ∣ N ( j ) ∣ N_j=|N(j)| Nj=N(j) 为相邻 agent 个数。这样就把原来全部 agent 的相互影响变化为中心 agent 和邻域内 agent 的一组两两影响。接下来作者进一步假设,在离散动作空间中,相邻 agent 的 one-hot 动作都可以用邻域内 agent 的平均动作 a ˉ j \bar{a}_j aˉj 加一个小波动 δ j , k \delta_{j,k} δj,k 的形式表示,即 a k = a ˉ j + δ j , k a_k = \bar{a}_j+\delta_{j,k} ak=aˉj+δj,k,然后证明了以下近似成立
    Q j ( s , a ) = 1 N j ∑ k ∈ N ( k ) Q j ( s , a j , a k ) ≈ Q j ( s , a j , a ˉ j ) Q_j(s,\pmb{a}) = \frac{1}{N_j} \sum_{k\in N(k)}Q_j(s,a_j,a_k) \approx Q_j(s,a_j,\bar{a}_j) Qj(s,aa)=Nj1kN(k)Qj(s,aj,ak)Qj(s,aj,aˉj) 这样就把 agent 间的关系进一步简化为中心 agent 和一个虚拟的平均 agent 的交互了。接下作者类比 DQN 和 AC 框架提出两种估计 Q Q Q 价值的方法,最后用玻尔兹曼分布从 Q Q Q 导出策略。关于这篇论文更详细的说明可以参考:多智能体强化学习入门(六)——MFMARL算法(Mean Field Multi-Agent RL)
  • 本 CoPO 论文借鉴了这里的平均场思想,但不是用来分解 action,而是用在了平均邻居 reward 上,通过平衡本 agent reward 和邻居的平均 reward 来协调 agent 间的动作,还是很巧妙的一个变化

2. 本文方法

2.1 思想

  • 作者想要模拟一个比较复杂的 SDP 系统(比如交通系统,需要在遵守交通规则的同时避免拥堵),他注意到
    1. 基于手工规则的 rule-based model 和一些流体动力学模型可以很好地模拟简单的无约束 SDP 系统(如鱼群),但是对于交通系统这样更结构化环境,agent 之间的交互是时变的,而且环境是非平稳的,这时设计规则控制器存在耗时、模拟效果差、缺乏泛化性等问题
    2. MARL 方法也可以模拟多智能体的交互,但是 MARL 方法通常会预先假设并固定 agent 间的关系,而 SDP 系统中 agent 间的关系是一直在变化的,每个 agent 有自己的独立目标,因此不能像合作型 MARL 做 credit decomposition;每个 agent 独立训练会导致合作行为缺失,也不合适
  • 作者注意到,以微观交通模拟为例,过去基于 MARL 工作的重点是学习高级控制器间接驱动车辆,或使用独立 learner 在简单场景环境中有限 agent 执行策略,不考虑协调问题。作者发现自上而下设计控制器不够灵活且难以扩展,因此想要自下而上地设计简单的低级控制器来实现 SDP 系统模拟,这种控制器
    1. 是从独立 agent 角度设计的,每个 agent 都使用相同的控制器,简单的个体行为整合出复杂的整体行为,即 “自下而上”
    2. 不要试图将整体的复杂行为分解到各个 agent 上,即不要 “自上而下”
    3. 不要对 agent 的角色(agent 间的交互关系)做任何限制或假设,agent 的交互关系应是可以时变的
    4. 要能适用于连续动作空间
  • 基于上述想法,作者设计的控制器
    1. agent 级别的控制器,从 agent 个体的视角出发
    2. 每个 agent 的交互范围都限制在局部(只和邻域范围内 agent 相互影响)
    3. 基于 PPO 设计 MARL 方法,以适应连续动作空间
    4. 为了允许交互关系时变,作者将交互关系参数化。引入社会心理学中的 社会价值取向 (social value orientation) 概念

      这个概念我百度查了下没找着,我看文章的意思就是反应个体的利益和他人的利益是否一致的一个值。作者在使用时定义了一个 局部协调系数 Local Coordination Factor (LCF),取值范围设定在 ϕ ∈ [ − 9 0 ∘ , 9 0 ∘ ] \phi\in[-90^\circ,90^\circ] ϕ[90,90],设这个 agent 自己的奖励为 r r r,邻域内其他 agent 的 reward 为 r N r^N rN,则这个 agent 的协调奖励coordinated reward
      r C = c o s ( ϕ ) r + sin ⁡ ( ϕ ) r N r^C = cos(\phi) r +\sin(\phi)r^N rC=cos(ϕ)r+sin(ϕ)rN 考察几个特殊情况

      1. ϕ = 0 ∘ \phi=0^\circ ϕ=0 时,这个 agent 是完全利己的,不在乎其他 agent 收益或损失,属于 1.2 节中的第4种关系
      2. ϕ ∈ ( 0 ∘ , 9 0 ∘ ) \phi\in (0^\circ,90^\circ) ϕ(0,90) 时,这个 agent 是合作倾向的
      3. ϕ ∈ ( − 9 0 ∘ , 0 ∘ ) \phi\in (-90^\circ,0^\circ) ϕ(90,0) 时,这个 agent 是竞争倾向的
      4. ϕ = 9 0 ∘ \phi=90^\circ ϕ=90 时,这个 agent 是完全利他的,它会牺牲自己来最大化其他 agent 的收益
      5. ϕ = − 9 0 ∘ \phi=-90^\circ ϕ=90,这个 agent 是损人不利己的,它的唯一目标就是减少其他 agent 的收益

      作者这里用一个角度来表示 agent 和邻居利益的重叠程度,进而影响 agent 的即时 reward,来控制 agent 的局部竞争/合作倾向,这个设计还挺巧妙的

2.2 符号说明

  • 作者把 SDP 系统建模为 “分散式部分可观测马尔科夫决策过程 Decentralized Partially Observable Markov Decision Processes (Dec-POMDPs)”,用一个 九元组表示: < E , S , A , P , R , ρ 0 , O , Z , γ > <\mathcal{E,S,A,P,R},\rho_0,\mathcal{O,Z},\gamma> <E,S,A,P,R,ρ0,O,Z,γ>,其中

    1. E \mathcal{E} E 是 agent 索引的集合,定义 t t t 时刻系统中活跃的 agent 索引组成集合 E t = { i 1 , t , . . . , i k t , t } ⊂ E \mathcal{E}_t=\{i_{1,t},...,i_{k_t,t}\} \subset \mathcal{E} Et={i1,t,...,ikt,t}E,其中 k t k_t kt 是此刻活跃 agent 的个数
    2. O , Z \mathcal{O,Z} O,Z 分别是观测空间和观测函数集合,每个 agent 都由自己的观测函数把状态转换为局部观测,即 o i , t = Z i ( s t ) : S → O o_{i,t} = \mathcal{Z}_i(s_t):\mathcal{S}\to\mathcal{O} oi,t=Zi(st):SO
    3. A \mathcal{A} A 是动作空间, t t t 时刻的联合动作空间为 A t = ⋃ i = 1 k t A i , t ⊂ A \mathcal{A}_t=\bigcup_{i=1}^{k_t}\mathcal{A}_{i,t}\subset \mathcal{A} At=i=1ktAi,tA。这一刻每个活跃 agent 执行动作 a i , t ∈ A i , t a_{i,t}\in \mathcal{A}_{i,t} ai,tAi,t,组成联合动作 a t = { a i , j } i = 1 k t ∈ A t \pmb{a}_t=\{a_{i,j}\}_{i=1}^{k_t}\in\mathcal{A}_t aat={ai,j}i=1ktAt
    4. 状态转移矩阵 P ( s t + 1 ∣ s t , a t ) \mathcal{P}(s_{t+1}|s_t,\pmb{a}_t) P(st+1st,aat) 会根据当前状态和联合动作发生转移
    5. 每个 agent 根据其自身的奖励函数获取个体奖励 r i , t = R i ( s t , a t ) r_{i,t}=\mathcal{R}_i(s_t,\pmb{a}_t) ri,t=Ri(st,aat)
  • environmental episode 记录了所有 agent 的动作和奖励信息,即 τ = { ( s t , a t , r 1 , t , . . . , r k t , t ) } ) t = 0 T \tau = \{(s_t,\pmb{a}_t,r_{1,t},...,r_{k_t,t})\})_{t=0}^T τ={(st,aat,r1,t,...,rkt,t)})t=0T,环境轨迹中包含了一组 agent episode { ( o i , t , a i , t , r i , t ) } t = t i s t i e \{(o_{i,t},a_{i,t},r_{i,t})\}_{t=t_i^s}^{t_i^e} {(oi,t,ai,t,ri,t)}t=tistie 其中 t i s , t i e t_i^s,t_i^e tis,tie 分别代表第 i i i 个 agent 启动和终止的时刻

  • 设第 i i i 个 agent 的策略网络由 θ i \theta_i θi 参数化,每个 agent 的个体目标(individual objective)就是最大化个体累计折扣回报(individual return)
    J i I ( θ i ) = E τ [ R i ( τ ) ] J_i^I(\theta_i) = \mathbb{E}_{\tau}[R_i(\tau)] JiI(θi)=Eτ[Ri(τ)] 其中 R i ( τ ) = ∑ t = t i s t i e γ t − t i s r i , t R_i(\tau) = \sum_{t=t_i^s}^{t_i^e}\gamma^{t-t_i^s}r_{i,t} Ri(τ)=t=tistieγttisri,t

2.3 独立策略优化 (independent policy optimization, IPO)

  • 这是一种最简单的 MARL 方法,每个 agent 都把其他 agent 简单地看做环境的一部分,像普通的 RL 一样独立最大化其累计折扣回报,这里各个 agent 之间没有信息交互,因此不需要 1.2.1 节讨论的那些架构
  • 定义 individual value functionindividual advantage function
    V i , t I = V i I ( s t ) = E [ ∑ t ′ = t t i e γ t ′ − t r i , t ] A i , t I = A i I ( s t , a i , t , a ¬ i , t ) = r i , t + γ V i I ( s t + 1 ) − V i I ( s t ) \begin{aligned} &V_{i,t}^I=V_i^I(s_t) = \mathbb{E}[\sum_{t'=t}^{t_i^e}\gamma^{t'-t}r_{i,t}]\\ &A_{i, t}^{I}=A_{i}^{I}\left(s_{t}, a_{i, t}, \mathbf{a}_{\neg i, t}\right)=r_{i, t}+\gamma V_{i}^{I}\left(s_{t+1}\right)-V_{i}^{I}\left(s_{t}\right) \end{aligned} Vi,tI=ViI(st)=E[t=ttieγttri,t]Ai,tI=AiI(st,ai,t,a¬i,t)=ri,t+γViI(st+1)ViI(st) 其中 a ¬ i , t \mathbf{a}_{\neg i, t} a¬i,t { a i } j = 1 , j ≠ i k t \{a_i\}_{j=1,j\neq i}^{k_t} {ai}j=1,j=ikt 的简写,即 “ t t t 时刻联合动作中非 agent i i i 动作的部分”
  • 直接用普通 RL 的 policy gradient 方法优化策略网络,如下计算 individual objective 的梯度
    ∇ θ i J i I ( θ i ) = E ( s , a ) [ ∇ θ i log ⁡ π θ i ( a i ∣ s ) A i I ( s , a i , a ¬ i ) ] \nabla_{\theta_{i}} J_{i}^{I}\left(\theta_{i}\right)=\underset{(s, \mathbf{a})}{\mathbb{E}}\left[\nabla_{\theta_{i}} \log \pi_{\theta_{i}}\left(a_{i} \mid s\right) A_{i}^{I}\left(s, a_{i}, \mathbf{a}_{\neg i}\right)\right] θiJiI(θi)=(s,a)E[θilogπθi(ais)AiI(s,ai,a¬i)] 作者在这里用了 PPO,引入重要度采样比 ρ = π i , new ( a i ∣ s ) / π i , old ( a i ∣ s ) \rho=\pi_{i,\text{new}}(a_i|s)/\pi_{i,\text{old}}(a_i|s) ρ=πi,new(ais)/πi,old(ais),得到 PPO 的优化目标
    J ^ i I ( θ i ) = E s , a [ min ⁡ ( ρ A i I , clip ( ρ , 1 − ϵ , 1 + ϵ ) A i I ) ] \hat{J}_i^I(\theta_i) = \mathbb{E}_{{s,a}}[\min(\rho A_i^I,\text{clip}(\rho,1-\epsilon,1+\epsilon)A_i^I)] J^iI(θi)=Es,a[min(ρAiI,clip(ρ,1ϵ,1+ϵ)AiI)] 使用 1.2.1 节介绍的 CTDE 框架进行训练时,需要把所有 agent 的观测拼接为全局状态,这样才能训练 V i I V_i^I ViI 网络;训练后得到的各个 agent 自己的策略网络不再需要全局观测,可以独立决策(由于 SDP 系统中 agent 高度相似的特点,这里的 V i I V_i^I ViI 网络和策略网络的参数都是全体 agent 共享的
  • IPO 方案是 MARL 最底层的方案,完全不做任何尺度的宏观考虑,其实已经退化到了普通强化学习的设定。显然这种方法无法体现出任何 “合作” 关系,无法模拟 SDP 系统,但它是完全 “自下而上” 的,没有对交互关系进行任何限制,这就绕开了 “自上而下” 设计控制器无法回避的要预先指定交互关系而缺乏灵活性的问题,因此作者的方法也是基于这种方案的改进

2.4 局部协调(Local Coordination)

  • 本节对 2.1 节最后说明的,利用局部协调系数 Local Coordination Factor (LCF) 来协调局部的动作的方案给出进一步说明

  • 首先定义 t t t 时刻 i i i 号 agent 半径 d n d_n dn 范围内的邻域奖励neighborhood reward
    r i , t N = ∑ j ∈ N d n ( i , t ) r j , t ∣ N d n ( i , t ) ∣ ,  wherein  N d n ( i , t ) = { j : ∥ Pos ⁡ ( i ) − Pos ⁡ ( j ) ∥ ≤ d n } r_{i, t}^{N}=\frac{\sum_{j \in \mathcal{N}_{d_{n}}(i, t)} r_{j, t}}{\left|\mathcal{N}_{d_{n}}(i, t)\right|}, \text { wherein } \mathcal{N}_{d_{n}}(i, t)=\left\{j:\|\operatorname{Pos}(i)-\operatorname{Pos}(j)\| \leq d_{n}\right\} ri,tN=Ndn(i,t)jNdn(i,t)rj,t, wherein Ndn(i,t)={j:Pos(i)Pos(j)dn} 其中 N d n ( i , t ) \mathcal{N}_{d_{n}}(i, t) Ndn(i,t) 上述邻域内的 agent 集合,这个集合的组成是会随时间改变的。接下来引入 LCF 系数,得到第 i i i 个 agent 的 coordinated reward 为
    r i , t C = c o s ( ϕ ) r i , t + sin ⁡ ( ϕ ) r i , t N r^C_{i,t} = cos(\phi) r_{i,t} +\sin(\phi)r^N_{i,t} ri,tC=cos(ϕ)ri,t+sin(ϕ)ri,tN 这样处理后,作者本质上是巧妙地把复杂的局部协调行为 “编码” 到奖励函数里了,由于奖励信号中考虑了相邻 agents 的利益,即使各个 agent 还是独立地在追求最大化其累计折扣回报,也会自然地表现出局部协调的行为

  • 作者在一个环岛环境进行试验来验证 LCF 的有效性,随机采样 ϕ ∼ U ( 0 ∘ , 9 0 ∘ ) \phi\sim \mathcal{U}(0^\circ,90^\circ) ϕU(0,90),让所有 agent 都共享这个 ϕ \phi ϕ,并且将其作为一个附加额度输入策略网络进行 IPO 训练;测试过程中,为所有 agent 设置一个固定的 ϕ \phi ϕ 进行多次测试。下图显示了训练时固定 ϕ \phi ϕ 和均匀采样 ϕ \phi ϕ 对应的成功率
    在这里插入图片描述
    这说明训练时提高对相邻 agent 利益的意识,可以得到更好的策略,并使整体表现提升;纯 IPO 训练( ϕ = 0 \phi=0 ϕ=0)可能导致次优策略

  • 作者没有直接用上述方案(我猜想这是因为直接使用会有诸多困难,比如训练阶段需要通信 reward 信号;另外对每个 agent 都那样计算会出现循环依赖),而是使用了一个神经网络来估计邻域内 agent 的平均价值,由于 SDP 系统的特点,这个网络也被所有 agent 共享。具体实现上

    1. 邻居价值网络估计 V i , t N = E [ ∑ t t i e γ t − t i s r i , t N ] V_{i,t}^N = \mathbb{E}[\sum_t^{t^e_i}\gamma^{t-t_i^s}r_{i,t}^N] Vi,tN=E[ttieγttisri,tN]
    2. 利用价值网络计算相关优势函数 A i , t N = r i , t N + γ V i , t + 1 N − V i , t N A_{i,t}^N = r_{i,t}^N+\gamma V_{i,t+1}^N-V_{i,t}^N Ai,tN=ri,tN+γVi,t+1NVi,tN
    3. 得到协调优势coordinated advantage A Φ , i , t C = c o s ( ϕ ) A i , t I + sin ⁡ ( ϕ ) A i , t N A_{\Phi,i,t}^C = cos(\phi)A_{i,t}^I+\sin(\phi)A_{i,t}^N AΦ,i,tC=cos(ϕ)Ai,tI+sin(ϕ)Ai,tN
    4. 用协调优势替代 2.3 节 PPO 优化目标中的个体优势函数,得到 PPO 的协调优化目标coordinated objective
      J i C ( θ i , Φ ) = E s , a [ min ⁡ ( ρ A Φ , i C , clip ( ρ , 1 − ϵ , 1 + ϵ ) A Φ , i C ) ] J_i^C(\theta_i,\Phi) = \mathbb{E}_{{s,a}}[\min(\rho A_{\Phi,i}^C,\text{clip}(\rho,1-\epsilon,1+\epsilon)A_{\Phi,i}^C)] JiC(θi,Φ)=Es,a[min(ρAΦ,iC,clip(ρ,1ϵ,1+ϵ)AΦ,iC)] 其中 Φ = [ ϕ μ , ϕ σ ] ⊤ \Phi=[\phi_\mu,\phi_\sigma]^\top Φ=[ϕμ,ϕσ] 代表了一个高斯分布,LCF 参数从中采样得到,即 ϕ ∼ N ( ϕ μ , ϕ σ 2 ) \phi\sim \mathcal{N}(\phi_\mu,\phi_\sigma^2) ϕN(ϕμ,ϕσ2),从而增加多样性

2.5 全局协调(Global Coordination)

  • 从 2.4 节的实验折线图可见存在最优的 LCF 系数使得系统整体表现最优,为了实现 LCF 系数 Φ \Phi Φ 的自动调节,定义描述群体性能的 全局目标 global objective
    J G ( θ 1 , θ 2 , … ) = E τ [ ∑ i ∈ E τ ∑ t = t i s t i e r i , t ] = E τ [ ∑ t = 0 T ∑ i ∈ E τ , t r i , t ] J^{G}\left(\theta_{1}, \theta_{2}, \ldots\right)=\underset{\tau}{\mathbb{E}}\left[\sum_{i \in \mathcal{E}_{\tau}} \sum_{t=t_{i}^{s}}^{t_{i}^{e}} r_{i, t}\right]=\underset{\tau}{\mathbb{E}}\left[\sum_{t=0}^{T} \sum_{i \in \mathcal{E}_{\tau, t}} r_{i, t}\right] JG(θ1,θ2,)=τE iEτt=tistieri,t =τE t=0TiEτ,tri,t 其中 E τ , t \mathcal{E}_{\tau,t} Eτ,t 代表轨迹 τ \tau τ t t t 时刻活跃的 agent 索引集合,由于我们不确定各个 agent 的启动和终止时刻,所以这里去掉了 γ \gamma γ 系数。可见,这个全局目标就是所有 agent 能获取的总回报的期望

  • 上面这个没法直接用 IPO 框架优化,作者将其分解为个体全局目标 individual global objective
    J i G ( θ i ∣ θ 1 , … ) = E τ [ ∑ t = t i s t i e ∑ j ∈ E τ , t r j , t ∣ E τ , t ∣ ] . J_{i}^{G}\left(\theta_{i} \mid \theta_{1}, \ldots\right)=\underset{\tau}{\mathbb{E}}\left[\sum_{t=t_{i}^{s}}^{t_{i}^{e}} \frac{\sum_{j \in \mathcal{E}_{\tau, t}} r_{j, t}}{\left|\mathcal{E}_{\tau, t}\right|}\right]. JiG(θiθ1,)=τE t=tistieEτ,tjEτ,trj,t . 这里中括号中被求和的分式部分定义为全局奖励global reward
    r G = ∑ j ∈ E τ , t r j , t ∣ E τ , t ∣ r^G = \frac{\sum_{j \in \mathcal{E}_{\tau, t}} r_{j, t}}{\left|\mathcal{E}_{\tau, t}\right|} rG=Eτ,tjEτ,trj,t 它是 t t t 时刻所有活跃 agent 的平均 reward, J i G ( θ i ∣ θ 1 , … ) J_{i}^{G}\left(\theta_{i} \mid \theta_{1}, \ldots\right) JiG(θiθ1,) 这个目标是 agent i i i 活跃时段内累计的 global reward。接下来作者证明了一个 Proposition 1
    在这里插入图片描述
    这个命题说明只要每个 agent 都最大化自己的 individual global objective,就等价于最大化 global objective

  • 使用梯度方法从 J i G ( θ i ∣ θ 1 , … ) J_{i}^{G}\left(\theta_{i} \mid \theta_{1}, \ldots\right) JiG(θiθ1,) 优化 Φ \Phi Φ,按链式法则求梯度
    ∇ Φ J i G ( θ i new  ) = ∇ θ i new  J i G ( θ i new  ) ⏟ 1 st Term  ∇ Φ θ i new  ⏟ 2nd Term  \nabla_{\Phi} J_{i}^{G}\left(\theta_{i}^{\text {new }}\right)=\underbrace{\nabla_{\theta_{i}^{\text {new }}} J_{i}^{G}\left(\theta_{i}^{\text {new }}\right)}_{1 \text {st Term }} \underbrace{\nabla_{\Phi} \theta_{i}^{\text {new }}}_{\text {2nd Term }} ΦJiG(θinew )=1st Term  θinew JiG(θinew )2nd Term  Φθinew  θ o l d , θ n e w \theta^{old},\theta^{new} θold,θnew 分别表示按 2.4 节最后 J i C ( θ i , Φ ) J_i^C(\theta_i,\Phi) JiC(θi,Φ) 进行一次 IPO 优化前后的策略。其中
    1 st Term  = E ( s , a ) ∼ θ i old  [ ∇ θ i new  min ⁡ ( ρ A G ( s , a ) , clip ⁡ ( ρ , 1 − ϵ , 1 + ϵ ) A G ( s , a ) ) ] 1 \text {st Term }=\underset{(s, \mathbf{a}) \sim \theta_{i}^{\text {old }}}{\mathbb{E}}\left[\nabla_{\theta_{i}^{\text {new }}} \min \left(\rho A^{G}(s, \mathbf{a}), \operatorname{clip}(\rho, 1-\epsilon, 1+\epsilon) A^{G}(s, \mathbf{a})\right)\right] 1st Term =(s,a)θiold E[θinew min(ρAG(s,a),clip(ρ,1ϵ,1+ϵ)AG(s,a))] 这一项就是把 policy gradient 转换为了 PPO 的优化形式,其中的 A G A^G AG全局优势 global advantage,它是先基于 r G r^G rG 用一个神经网络估计 V G V^G VG,再由 V G V^G VG 计算出来的。接下来考虑第二项,有
     2nd Term  = ∇ Φ ( θ i old  + α ∇ θ i old  J i C ( θ i old  , Φ ) ) = α E ( s , a ) ∼ θ i old  [ ∇ θ i old  log ⁡ π θ i old  ( a i ∣ s ) ∇ Φ A Φ , i C ] \text { 2nd Term }=\nabla_{\Phi}\left(\theta_{i}^{\text {old }}+\alpha \nabla_{\theta_{i}^{\text {old }}} J_{i}^{C}\left(\theta_{i}^{\text {old }}, \Phi\right)\right)=\alpha \underset{(s, \mathbf{a}) \sim \theta_{i}^{\text {old }}}{\mathbb{E}}\left[\nabla_{\theta_{i}^{\text {old }}} \log \pi_{\theta_{i}^{\text {old }}}\left(a_{i} \mid s\right) \nabla_{\Phi} A_{\Phi, i}^{C}\right]  2nd Term =Φ(θiold +αθiold JiC(θiold ,Φ))=α(s,a)θiold E[θiold logπθiold (ais)ΦAΦ,iC] 注意这里我们先把 θ i new \theta_i^{\text{new}} θinew 做了一次泰勒展开,得到 J i C J_i^C JiC 之后,按普通的 policy gradient 方式得到了第二个等号。把两项合起来,并对所有 agent 取期望,就得到优化 LCF Φ \Phi Φ 的目标函数为
    J L C F ( Φ ) = E i , ( s , a ) ∼ θ old  i [ ∇ θ i new  min ⁡ ( ρ A G , clip ⁡ ( ρ , 1 − ϵ , 1 + ϵ ) A G ) ] [ ∇ θ i old  log ⁡ π θ i old  ( a i ∣ s ) ] A Φ , i C J^{L C F}(\Phi)=\underset{i,(s, \mathbf{a}) \sim \theta^{\text {old }} i}{\mathbb{E}}\left[\nabla_{\theta_{i}^{\text {new }}} \min \left(\rho A^{G}, \operatorname{clip}(\rho, 1-\epsilon, 1+\epsilon) A^{G}\right)\right]\left[\nabla_{\theta_{i}^{\text {old }}} \log \pi_{\theta_{i}^{\text {old }}}\left(a_{i} \mid s\right)\right] A_{\Phi, i}^{C} JLCF(Φ)=i,(s,a)θold iE[θinew min(ρAG,clip(ρ,1ϵ,1+ϵ)AG)][θiold logπθiold (ais)]AΦ,iC 用它关于 Φ \Phi Φ 做随机梯度上升即可优化 Φ \Phi Φ注意这里的 J L C F ( Φ ) J^{L C F}(\Phi) JLCF(Φ) 是各个 agent 独自计算的部分拼起来的,其梯度也是如此,因此可以用 IPO 形式独立计算,然后在训练时用 CTDE 的方式拼接

2.6 小结

  • 综上所述,CoPO 中一共训练了4个神经网络,包括

    1. 策略网络 policy network:用 PPO 优化 2.4 节最后的协调优化目标 J i C ( θ i , Φ ) J_i^C(\theta_i,\Phi) JiC(θi,Φ),优化 θ \theta θ(所有 θ i \theta_i θi 都一样)。测试阶段只使用这个网络
    2. 个体价值网络 individual value network:估计 2.3 节中的 V i , t I = E [ ∑ t ′ = t t i e γ t ′ − t r i , t ] V_{i,t}^I = \mathbb{E}[\sum_{t'=t}^{t_i^e}\gamma^{t'-t}r_{i,t}] Vi,tI=E[t=ttieγttri,t],需要所有 agent 拼接全局观测得到全局状态,仅在训练阶段使用,普通地优化基于 TD error 的损失来训练
    3. 邻域价值网络 neighborhood value network:估计 2.4 节中的 V i , t N = E [ ∑ t t i e γ t − t i s r i , t N ] V_{i,t}^N = \mathbb{E}[\sum_t^{t^e_i}\gamma^{t-t_i^s}r_{i,t}^N] Vi,tN=E[ttieγttisri,tN],需要所有 agent 拼接全局观测得到全局状态,仅在训练阶段使用,普通地优化基于 TD error 的损失来训练
    4. 全局价值网络 global value network:估计 2.5 节中的 V G = E [ ∑ t γ t r G ] V^G = \mathbb{E}[\sum_t\gamma^{t}r^G] VG=E[tγtrG],需要所有 agent 拼接观测得到全局状态,仅在训练阶段使用,普通地优化基于 TD error 的损失来训练

    注意 SDP 系统 agent 间高度同质化,这些网络被所有 agent 共享所有网络的输入都只有局部观测
    在这里插入图片描述

  • 本文方法的训练结构也比较特别,因为我们训练的所有网络都是共享的,某种程度上可以看做只训练了一个 agent,作者设计时也特别避免了大部分需要信息通信的点,从而贴近 IPO 形式;不过我认为最后利用全局价值网络优化 Φ \Phi Φ 的时候还是需要拼接梯度信息,这里应该是用了 CTDE 的思想,只是通信的信息从 “局部观测” 变成了 “局部梯度”

    Note: 因为还是有信息交互,这里的价值网络训练时也可以像普通 CTDE 那样使用局部观测拼接出全局状态信息,但是作者实验发现这样会导致性能下降

  • 本文方法的示意图如下
    在这里插入图片描述
    一句话总结就是: Φ \Phi Φ 协调局部奖励,从而协调局部的交互关系;用全局价值优化 Φ \Phi Φ,找到最优的局部交互关系

3. 伪代码

  • CoPO 伪代码如下
    在这里插入图片描述

4. 实验

  • 作者使用以下五个交通模拟环境进行实验
    在这里插入图片描述
    对比方法有
    1. IPO:完全按 2.3 节的 naive 方式,使用 PPO 方法进行 IPO 训练
    2. MFPO:和本文方法基本一致,只是训练时类似 CTDE 的一般套路,将局部观测拼接后作为状态信息来训练价值网络,这里拼接时还用了平均场思想,详见原文
    3. CL:课程学习,分四个阶段训练,每阶段参入的 agent 数量增加 25%

4.1 Main Results

  • CoPO 在所有环境上取得了最高的成功率
    在这里插入图片描述
    值得一提的是,MFPO 在一些环境中的表现比独立的 PPO 更差。这可能是由于群体状态一直在变化。简单地连接或平均邻域 agent 的状态作为值函数的附加输入会使训练不稳定

  • 从成功率、安全性、效率三个角度看,CoPO 都是最优
    在这里插入图片描述

  • 作者进一步考虑了各方法对于 agent 数量的鲁棒性
    在这里插入图片描述
    其中虚线是训练时的 agent 数量,然后使用不同数量的 agent 进行测试,可见 CoPO 还是最优的

4.2 Behavioral Analysis

  • 作者考察了各种方法训练出 agent 的交互行为,发现 CoPO 得到的 agent 确实呈现出复杂的交互行为。群体中的每个 agent 都倾向于社交性驾驶,会对附近的车辆做出反应,这些反应既包括顺从行为,如屈服,排队,甚至倒车给他人留出更多的空间,也包含攻击性行为,如切入和冲刺
    在这里插入图片描述
    这些复杂的交互行为,使得导致拥堵的 “关键错误” 显著减少

5. 总结

  • 第一次看多智能体强化学习相关的论文,感觉还是挺有意思,我认为本文的几个亮点是
    1. 引入 社会价值取向 的概念,通过奖励函数编码 agent 的交互倾向(后面半句不知道是不是 MARL 文章的一般做法)
    2. 交互关系参数化,使其变得可以优化
    3. 基于 IPO 方案,“自下而上” 地构建群体间复杂的交互关系,灵活性、扩展性都很强
    4. 使用平均场思想,避免 agent 数量增加时复杂度快速上升的问题
  • 不过这里还是有一些问题
    1. 作者注意到复杂系统中 agent 的关系会随时间改变,成功地将交互关系参数化并使其可以优化,但是最后训练完成后得到 Φ \Phi Φ(虽然用了分布的形式增加多样性)还是一个定值,也就是说训练完成后 agent 间 “合作” 和 “竞争” 的程度还是固定的,这个有待进一步优化
    2. 本文考虑的是一个非典型 MARL 问题,本文方法也是围绕 1.1 节中分析的几个特点进行设计的,因此难以推广到一般问题上。我觉得主要问题在于 SDP 系统假设各个 agent 高度相似,这个假设太强了,本文方法其实最后就只是训练了一个策略,然后把它用了好多次
  • 8
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Multi-agent reinforcement learning (MARL) is a subfield of reinforcement learning (RL) that involves multiple agents learning simultaneously in a shared environment. MARL has been studied for several decades, but recent advances in deep learning and computational power have led to significant progress in the field. The development of MARL can be divided into several key stages: 1. Early approaches: In the early days, MARL algorithms were based on game theory and heuristic methods. These approaches were limited in their ability to handle complex environments or large numbers of agents. 2. Independent Learners: The Independent Learners (IL) algorithm was proposed in the 1990s, which allowed agents to learn independently while interacting with a shared environment. This approach was successful in simple environments but often led to convergence issues in more complex scenarios. 3. Decentralized Partially Observable Markov Decision Process (Dec-POMDP): The Dec-POMDP framework was introduced to address the challenges of coordinating multiple agents in a decentralized manner. This approach models the environment as a Partially Observable Markov Decision Process (POMDP), which allows agents to reason about the beliefs and actions of other agents. 4. Deep MARL: The development of deep learning techniques, such as deep neural networks, has enabled the use of MARL in more complex environments. Deep MARL algorithms, such as Deep Q-Networks (DQN) and Deep Deterministic Policy Gradient (DDPG), have achieved state-of-the-art performance in many applications. 5. Multi-Agent Actor-Critic (MAAC): MAAC is a recent algorithm that combines the advantages of policy-based and value-based methods. MAAC uses an actor-critic architecture to learn decentralized policies and value functions for each agent, while also incorporating a centralized critic to estimate the global value function. Overall, the development of MARL has been driven by the need to address the challenges of coordinating multiple agents in complex environments. While there is still much to be learned in this field, recent advancements in deep learning and reinforcement learning have opened up new possibilities for developing more effective MARL algorithms.

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

云端FFF

所有博文免费阅读,求打赏鼓励~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值