基于深度强化学习的对手建模方法研究综述

源自:系统仿真学报  

作者:徐浩添  秦龙  曾俊杰  胡越  张琪

摘 要

深度强化学习是一种兼具深度学习特征提取能力和强化学习序列决策能力的智能体建模方法,能够弥补传统对手建模方法存在的非平稳性适应差、特征选取复杂、状态空间表示能力不足等问题。将基于深度强化学习的对手建模方法分为显式建模和隐式建模两类,按照类别梳理相应的理论、模型、算法,以及适用场景;介绍基于深度强化学习的对手建模技术在不同领域的应用情况;总结亟需解决的关键问题以及发展方向,为基于深度强化学习的对手建模方法提供较全面的研究综述。

关键词

深度强化学习 ; 对手建模 ; 博弈论 ; 心智理论 ; 表征学习 ; 元学习

引言

如何在合作、竞争的复杂任务场景中自主决策是当前人工智能领域所要解决的关键问题。在游戏人工智能、军事仿真、自动驾驶、机器人集群控制等应用场景的多智能体系统中,智能体具有感知、记忆、规划、决策、交流、行动等许多能力,其中对其他智能体行为、意图、信念等的推理十分重要。在此过程中,智能体往往需要通过观察其他智能体,建立除自身以外的其他智能体抽象模型,推理其行为、意图、信念等要素,并用于辅助自身决策,此过程涉及到的方法被称为对手建模(opponent modeling, OM)。

对手建模不仅关注竞争场景下的敌方智能体建模,而且还考虑合作场景下的友方建模,因此,有些文献又称其为建模其他智能体。从理论上讲,完全理性的智能体能够做出当前条件下的最优策略,实现收益的最大化。然而,现实情况下的智能体通常只具有有限程度理性[1],决策受到情绪、偏好等影响,往往以“满意”作为收益标准。此外,基于规则的智能体,如产生式规则、启发式算法等[2-4],遵循预置规则机制,行为模式僵硬、易于预测、理性程度不足,对手建模技术使智能体能够快速适应对手的行为方式并且在对抗中利用其弱点获取更高收益,或在合作中使团队获得更大回报。现有的对手建模方法如策略重构、类型推理、意图识别、递归推理等方法[5],具有模型可解释、认知推理层次深的特性。然而,要进一步应用于贴近现实的问题场景仍然存在动态环境适应性弱、特征选取复杂、状态空间表示能力不足、方法在规模上的可扩展性不强等诸多缺陷。

针对以上不足,研究者们将以深度Q网络(deep Q network, DQN)[6]为代表的深度强化学习算法(deep reinforcement learning, DRL)引入到对手建模领域。其中,强化学习是智能体学习如何与环境交互,达到最大化价值和最优策略的自主决策算法。深度学习则能够从高维感知数据中提取抽象特征,对复杂的价值函数和策略函数具有很强的拟合能力。DRL有机地结合了深度学习与强化学习,前者能够增强感知与表达能力,后者提供最优决策能力,使基于DRL的对手建模(DRL-OM)技术对复杂环境中其他智能体具有更好的认知能力,目前已在德州扑克[7-8]、星际争霸II[9]等多智能体问题场景取得优异的表现。

DRL-OM是DRL方法在对手建模应用中的研究分支,涉及人工智能、神经科学、认知心理学、博弈论等众多领域。有别于以往的对手建模方法[10],DRL-OM研究涉及更复杂的应用场景、更多元的领域交叉,在问题特性、建模方式、应用场景上和传统方法具有较大差异。虽然许多现有文献[11-12]将对手建模领域的已有研究进行了汇总分类,但目前尚没有将基于DRL方法的对手建模进行系统研究的综述文章。此外,有关多智能体强化学习的综述研究[13-14]也阐述了对手建模的应用,然而它们的内容普遍较少涉及对手建模原理,也没有系统地分类和总结对手建模方法。随着DRL越来越广泛地应用在对手建模中,领域内涌现出许多崭新的理论和方法,远超现有文献总结的涵盖范围。因此,本文将DRL算法作为研究出发点,基于对手的理性程度和建模机理提出不同于现有文献[11-12]的对手建模分类标准。此外,对手建模技术的更新迭代为现实应用提供了机遇和挑战,为此,本文汇总归纳了DRL-OM方法在应用领域的相关研究工作。

1 基本原理

1.1   对手建模原理

根据文献[5]中的定义,对手建模是一种在无法观察到其他智能体内部状态的情况下,自身智能体以观测和先验知识为输入,通过交互、观测、推理等过程捕获无法直接感知的隐藏信息,将其他一个或多个智能体的类别、目标、动作等预测信息和意图、计划、策略等认知信息作为输出的建模方法,其核心是帮助建模者利用对手策略或根据对手隐藏的信息制定更好的响应策略。

如图1所示,对手建模可以划分为数据获取、特征提取、学习规划、策略响应4个阶段[15]。根据对手建模的应用目的,对手建模能在对抗场景中预测对手行为并予以回击,或利用对手策略上的疏漏获取更高收益。对手建模也可以在合作场景中建立团队成员的模型,在行动前予以配合,实现更为高效的任务协同。

图1   对手建模方法流程

一般来说,对手建模方法可以分为显式对手建模和隐式对手建模。前者需要建立预测对手的行为模型或者推理过程。具体来说,显式建模从与对手的在线交互中获取数据,提取对手的行动、意图、信念特征,并且将对手特征预测和规划推理两部分解耦,便于直观分析。典型的显式对手建模方法有策略重构[16-17]、递归推理[18-19]、图模型[20-21]、群体建模[22-23]等。显式建模的优点是结果预测精准,模型可信性强。缺点是特征表示复杂,需要较强的先验知识用于设计模型架构。

与显式建模方法相对,隐式建模不是建立其他智能体的显式模型,而是在自身结构或推理过程中含蓄地编码对手智能体,例如,将建模和规划合为一体或者将捕获的对手行为特征蕴含在机器学习模型的优化目标中。隐式建模方法可以通过对手交互的历史数据离线训练,避免了在线计算资源开销大、决策时延长的问题。典型的方法包括特征聚类[24-25]、神经网络预测[26]、意图识别[27-29]、类别推理[30-31]等。隐式对手建模避免了在线计算和先验知识要求,有利于在信息不完全的情况下决策。缺点是由于无法有效衡量学到的行为预测模型和真实之间的差异,导致难以权衡模型的探索和利用问题。

1.2   对手建模中的DRL算法

强化学习通常将问题建模成马尔科夫决策过程(Markov decision process, MDP),MDP模型中状态具有马尔科夫性,即智能体的当前状态只与前一状态有关。MDP可以表示为由状态、动作、奖励、转移、折扣因子<S, A, R, T, γ> 组成的五元组。针对规模较小的离散状态-动作空间,传统的强化学习方法常使用状态价值表或线性函数近似的方式求解。

在强化学习方法的基础上,DRL将深度神经网络(deep neural network, DNN)作为价值和策略的近似函数,提升了高维输入数据下的特征提取能力。DRL方法主要分为两大类[32]:值函数近似方法和策略梯度方法。值函数近似方法通过神经网络梯度下降逼近动作价值函数,缺点是容易收敛到局部最优点,难以处理连续动作空间的任务;策略梯度方法是将策略参数化,通过深度神经网络逼近策略函数,再沿着策略梯度方向求解最优策略。

 1.2.1   值函数近似方法

Q学习算法是无模型强化学习的一种,通过单步时序差分学习最优行动值。Q学习算法的更新公式为

(1)

式中:(s,a) 为当前状态和采取的动作;(s',a')为下一状态和采取的下一动作;α 为动作价值函数的学习率;r 为当前状态返回的奖励;γ 为衰减因子。动作价值函数Q(s,a) 通过式(1)时序差分近似到最优动作价值函数Q* 。

DQN将式(1)用于构造卷积神经网络的损失函数,输入当前状态信息,利用Q学习计算所有动作价值并选出最大值的动作输出。此外,DQN采用离线策略更新提高样本利用率,通过使用经验回放池减少样本之间的时序关系,提高了深度神经网络训练的收敛性,并且在预测网络更新时,固定目标网络参数,提高了Q学习的稳定性。

DQN存在诸多不足,如经验回放池容量有限、需要完整观测信息。深度循环Q网络(deep recurrent Q network, DRQN)[33]使用长短时记忆网络代替全连接层网络,用于解决部分可观测条件下的决策问题。

 1.2.2    策略梯度方法

DQN无法处理连续动作控制任务,因此Lillicrap等[34]在确定性梯度理论基础上结合Actor-Critic框架提出了深度确定性策略梯度算法(deep deterministic policy gradient algorithms, DDPG)。DDPG将动作策略和动作策略探索的学习更新分离,执行动作策略时使用确定性策略,探索时使用随机策略。类似于DQN,DDPG训练时从经验回放池中采样,对目标网络和预测网络进行离线策略更新。每个网络采用Actor-Critic结构,分别进行策略更新和值函数更新,使Q网络更容易收敛。

根据异步强化学习的思想,Mnih等[35]提出异步优势演员-评论家算法(asynchronous advantage actor-critic, A3C)。A3C创建多线程同步训练,演员-评论家框架的智能体在相互间不干扰的并行环境中更新参数。A3C是多个worker从环境副本中收集经验,计算梯度之后,将梯度上传给主网络,更新主网络,并下载最新的主网络副本。避免了单一智能体连续提交更新的问题,以此降低样本相关性,提高收敛能力。

策略梯度方法具有选择更新步长的问题。步长过短会增加迭代耗时,而过长会导致更新到差策略,差策略产生的数据导致策略进一步变差,最终模型效果不佳。Schulman等[36]提出信任域策略优化算法,在策略更新中选择合适的步长,保证奖励函数单调增加。近端策略优化(proximal policy optimization, PPO)[37]在信任域策略优化算法的基础上使用一阶优化代替强约束,降低策略更新前后的分布差异性,解决了一般信任域优化算法运算复杂问题。

DRL方法在单智能体场景下大获成功,并且在多智能体场景中应用越来越广泛。对手建模技术与DRL的结合为解决多智能体决策问题带来新的突破点。表1总结了两类代表性的DRL方法,并列举了其中在对手建模领域应用较多的算法。

表1   对手建模使用的深度强化学习算法

2 基于DRL的显式对手建模

按照对手的理性程度和建模机理,基于DRL的显式对手建模的主要方法可以分为博弈均衡策略建模方法和递归推理建模方法。博弈均衡策略方法主张对手的绝对理性,采用博弈论的均衡原理建模,递归推理方法强调了智能体具备有限理性,从认知心理学的人类理性研究中获取灵感。

基于博弈均衡策略的建模方法尝试通过智能体自演收敛至博弈均衡,并且在序列、非零和等类型的博弈中追求绝对理性。主要方法有:①基于虚拟自博弈的建模方法;②基于反事实遗憾值最小化的建模方法;③基于MiniMax均衡的建模方法。

2.1   博弈均衡策略建模

 2.1.1   博弈论基础概念

博弈论与多智能体系统的结合由来已久,许多对手建模方法受到博弈论的启发。在这类方法中,DRL利用强化学习的状态采样更新代替了传统的状态空间遍历,提升了学习最优策略的效率,采用深度学习的非线性近似能力来拟合更高维的博弈问题。

纳什均衡是博弈论中标志性的均衡解,代表着任何人无法通过单独偏离纳什均衡策略而获得更高收益。

定义1 纳什均衡(Nash equilibrium, NE)以玩家同时决策的策略型博弈为例,将其形式化为集合G=(N, Ai, fi), i∈N ,其中,N 为玩家集合;Ai 为玩家i 的策略集合;fi 为玩家i 的收益函数。博弈G 的纳什均衡满足

(2)

式中:

为玩家i 采取的最优策略。

定义2 虚拟博弈(fictitious play, FP)是一类求解纳什均衡的方法,它根据对手的平均经验做出最优策略,将最优策略加入平均经验,并以此反复迭代的学习过程。如公式(3)所示,第n 次迭代的智能体平均经验为σnσn,最优策略为b(σn) 。

(3)

定义3 扩展式博弈(extensive-form game, XFG)可表示为有序的向量Γ=(N, V, E, x0,Vi,O, u), i∈N ,其中,N为参与人的有限集合;(V, E, x0) 是博弈树,Vi 为非叶节点;O 为博弈可能结果集合;u 为从博弈终点至集合O 的效用映射。

博弈树搜索是另一类求解纳什均衡的学习方法,包括反事实遗憾值最小化(CFR Minimization, counterfactual regret minimization)和蒙特卡罗树搜索等,它们通过遍历博弈树计算扩展型博弈的状态、动作价值。

定义4 MiniMax均衡是博弈中具有安全性象征的均衡解,代表着玩家选择获得最高收益的保底策略。对于策略型博弈G,玩家i 的最大最小值满足

(4)

 2.1.2   虚拟自博弈

虚拟自博弈[38]的主要思想是在扩展式博弈中跟踪对手的历史行为,并根据对手的平均策略选择最佳对策。神经虚拟自博弈(neural fictitious self-play, NFSP)[39-41]以虚拟自博弈为基础,利用深度神经网络拓展了不完全信息博弈的研究,并在诸如扑克的场景下达到近似纳什均衡。如图2所示,NFSP的最佳反应依赖于最佳响应网络和历史平均网络。最佳响应网络的实现是基于DQN,以ϵ-贪婪的策略探索行为奖励,学习Q值得到对其他智能体历史行为的最佳响应。历史平均网络是模仿对手智能体历史最佳响应的对手模型,使用多层神经网络通过监督学习实现对从状态到行为的对手策略映射。在不完全信息博弈的二人德州扑克游戏中,NFSP智能体能够在没有领域先验知识的情况下收敛至近似纳什均衡。然而基于DQN的最优响应在对手策略变化的博弈中难以收敛,并且面临在搜索规模巨大、搜索深度较深的场景学习困难等问题。针对NFSP无法收敛最优的问题,Zhang等[41]提出将蒙特卡罗树与NFSP相结合,以在线更新策略的蒙特卡罗搜索的方式训练,解决了DQN无法近似最优解的问题,缺点是蒙特卡罗搜索存在产生样本方差大的问题。

图2   NFSP智能体架构

(policy-space response oracles, PSRO)[42]是在NFSP的概念上进一步推广,证明虚拟博弈是以先前近似最佳反应为依据的一个特定元策略分布。假定元策略并非唯一,PSRO通过基于线性规划、虚拟博弈、遗憾值最小化等算法实现的元策略求解器为每个智能体依次选择混合元策略。当每个智能体计算当前的元策略时,同时基于对手智能体的元策略集进行概率抽样,获得对手的混合策略,并据此计算最优响应策略更新元策略集。这类方法防止对特定策略的响应过度拟合,从而提供了一种对手规范化的形式。由于PSRO算法与行为博弈论模型的相似性,该算法又产生了一个独立的近似扩展版本,计算智能体的最佳响应,称为深度认知层次。在多玩家博弈中,PSRO计算纳什均衡常面临均衡选择问题。α-rank[43]是一种用于大规模多智能体交互中评估和排序智能体的进化动力学方法。Muller等[44-45]将α-rank方法应用在PSRO算法中,结合卡尔科夫-康尼链作为评价解概念。马尔科夫-康尼链刻画智能体种群的长期动态,作为评估对手优劣势的标准,使一般和多玩家博弈中包括非纳什均衡策略的所有策略得到充分训练改进。

 2.1.3   反事实遗憾值最小化

虚拟自博弈的方法需要在真实对手交互中学习策略,然而许多应用场景无法满足与对手多次交互训练的前提条件。研究人员利用模拟的方法解决该问题,Martin等[46]提出的反事实遗憾值最小化是利用自我博弈来最小化反事实遗憾从而拟合纳什均衡的方法,能够很好地模拟扩展式博弈的树分支节点,并在扑克游戏中取得成功。它的流程是对所有信息集

进行遗憾匹配计算,更新平均策略集并计算玩家ii的反事实收益值,最后使用反事实收益更新累计遗憾值。然而记录所有节点的累计遗憾值导致算法的计算和存储开销巨大。遗憾匹配计算式为

(5)

为解决最小化反事实遗憾值方法计算速度问题,研究者们从其原理出发提出一系列在线学习方法[47-51]。Lanctot等[48]采用蒙特卡罗采样方式对博弈树进行部分抽样,相较原方法计算效率提升10倍,并且证明抽样更新的遗憾收益值是真实值的无偏估计。Tammelin[51]将平均策略的收益加以衰减,提高了近期迭代策略的权重。针对CFR算法的存储效率问题,研究者们也提出状态空间压缩和问题抽象方法[52-53]。研究者也尝试对CFR方法的时效性问题和简化问题规模提出解法。王鹏程[54]提出适用于强化学习的模式匹配扑克建模方法,基于蒙特卡罗博弈树搜索计算回报函数,利用基于长短时记忆网络的DQN学习特征,降低了博弈问题求解难度。在非完全信息条件下,基于CFR方法的智能体在决策时建模对手可能采取的所有行动,将其表示为一个信息集,并学习使信息集遗憾值最小的自身策略。

 2.1.4  MiniMax均衡

上述两类模型是从纳什均衡角度求解对手建模的最优策略,而MiniMax均衡是以安全性为前提的均衡策略对手建模方法。Wright等[55]改进了定量认知层次模型中的0级(Level-0)模型,首先手工筛选出最大最小收益、最小最大悔度等特征,将这些特征线性加权组合成为0级模型以表示智能体的初始行为,再将0级模型经过定量认知推理后得到一个有限层次推理的对手行为模型。该方法在多种游戏的玩家数据集中实验,测试结果表明对手建模能够模拟出有限程度理性的人类行为。

Li等[56]将最大最小思想作为多智能体环境中鲁棒学习的一种方法,即使智能体在训练中没有获得最优策略,学习到的鲁棒策略也使任务表现足够良好。徐浩添将MADDPG算法[57]扩展到最大最小多智能体深度确定性策略梯度(minimax multi-agent deep deterministic policy gradient, M3DDPG)[56],该算法在考虑最坏情况的假设下更新策略,即对手模型假设所有其他智能体都将采取敌对行动,并且选择能够使自身收益最小的策略。最大最小策略的学习目标在连续动作空间计算上难以直接优化,因此,他们通过鲁棒强化学习中的最差噪声概念隐含地学习最大最小值,提出了多智能体对抗学习来解决计算最大最小策略的问题。

 2.1.5  博弈均衡策略建模方法总结

基于博弈均衡策略的DRL-OM建模方法采用虚拟博弈、遗憾值最小化等学习方法,并且引入纳什均衡、最大最小均衡等均衡解概念作为效果的衡量标准。该类方法的优点是在给定适当的约束条件和博弈场景下,模型具有较强的理论支撑,以及在应对绝对理性对手时最优策略的收敛性有保证。然而,缺点是没有刻画对手特有行为习惯的能力,无法在对手模型弱点上加以利用,获得超越均衡解的收益。此外,在解决如非零和博弈、大规模零和博弈等NP-完全复杂度问题时,现有博弈论方法难以精确求解纳什均衡。表2对比了博弈均衡策略的代表性算法,分别对其研究动机、模型效果总结阐述。

表2   博弈均衡策略方法的研究动机、求解问题与效果

2.2  递归推理建模

基于递归推理方法从认知心理学角度刻画了智能体和其他个体的心理活动,试图模仿人类社会的信念推理、意图推理等认知行为过程,期望实现智能体的有限理性决策。主要方法有:①基于心智理论的建模方法;②基于认知层次结构的建模方法;③基于贝叶斯策略复用的建模方法。

 2.2.1  心智理论

心智理论是递归推理中的一类方法[59],被认为是有助于增强深度强化学习可解释性的理论之一。在心智理论方法中,智能体对其他智能体的心理状态有明确的信念。换而言之,其他智能体的心理状态也可能包含该智能体的信念和心理状态。Rabinowitz等[60]根据心智理论提出预测对手特征和精神状态的心智理论网络(theory of mind network, ToMnet)。ToMnet通过观察获取对手的先验知识,通过元学习建立智能体的模型。ToMnet遵循一个前提假设:当遇到一个新对手时,智能体应该已经对其行为有了强大且丰富的先验知识。

如图3所示,ToMnet架构由3类网络组成:①个性网络从一组部分可观测马尔科夫过程中解析智能体的历史轨迹,形成个性嵌入echar;②精神状态网络输入字符嵌入echar和最近回合的轨迹输出精神状态嵌入emental ;③预测网络将当前状态以及其他网络的输出作为输入,输出预测对手下步动作概率

 ,对象损耗概率和后继表征。ToMnet正是基于3类网络的表征信息建立对手模型,在实验中分别利用贝叶斯层次推理、逆强化学习、表征学习等方法对随机策略智能体的行为进行预测;对基于目标智能体的目标进行推理;对不同种类的DRL智能体进行聚类区分;对智能体的错误信念进行判断;预测智能体的部分观察和信念。ToMnet的一个主要优点是普适性,它作为一种元学习框架,对贝叶斯最优响应、强化学习值迭代、深度强化学习网络的智能体实现方法均有出色表现。在离散网格环境中的测试结果表明ToMnet的用途广泛,能够预测通用智能体的一般行为,或者针对特定智能体预测特定的行为。同时,它的模型符合认知科学规律,具有很好的人工智能可解释性。

图3   心智网络架构

 2.2.2   认知层次结构

心理学学者认为人类会将自身信念、意图和情绪归因于他人,并且使用推理能力递归地思考他人的想法,称为信念嵌套[61]。通过学习其他玩家信念状态的模型进行递归推理,这种信念的嵌套可以表现为“我相信你相信我相信”。量化认知层次结构利用量化响应和有限迭代策略推理反映有限理性的人类行为。假定每个智能体具有有限K级推理深度,Hartford等[62]将正则博弈的收益矩阵编码,构造模拟递归推理的神经网络结构。第1层网络结构是收益矩阵映射到行动向量的对手策略,作为对手模型的0级策略。从0级到K级推理的过程,前几级的策略将作为隐藏向量输入的神经网络,学习一个从隐藏层映射到动作维度的输出函数,用于模拟对手模型当前一级的策略,实现了基于认知层次结构的对手建模。该方法的优点是避免了手动筛选特征,调试了模型参数,但是该方法的架构设计较为初步,只适用于双人游戏且无重复的博弈。

Wen等[63]提出概率递归推理(probabilistic recursive reasoning, PR2)框架,考虑对手下一步行动对自身策略可能带来的影响,将对手建模转化为推理对手下一步行动的条件概率,采用变分贝叶斯方法逼近对手的条件策略,使每个智能体找到最优策略,然后改进当前策略,在DQN和DDPG上实现自博弈收敛至纳什均衡。

然而PR2的推理层次只有1级,无法满足有限理性建模的需要。因此,为解决深层次推理的问题,Wen等[64]又在概率图模型基础上设计了广义递归推理(generalized recursive reasoning, GR2)框架,将对手下一步行动的推理拓展到了K层级推理,其中第k级推理为对1~k-1级策略联合条件概率的最优响应策略,而对手模型是基于前K-1级策略做出的最优策略。从当前状态s开始,智能体i的1级行为

取决于对手0级行动,k级行为取决于对手的k-1级行动提供深层次推理结构的理论支撑。如图4所示,在此基础上推导出GR2演员-评论家算法,理论上证明了GR2条件下完美贝叶斯均衡的存在性,以及策略梯度方法在二人范式博弈上的收敛性。

图4   递归推理过程概率图模型

 2.2.3  贝叶斯策略复用

以往的对手建模通常假定智能体执行固定策略,研究者们注意到智能体可能在多种策略间切换选择,因此,设计出监测和学习对手策略的对手建模机制。切换智能体模型是一类结合贝叶斯神经网络,从观察到的状态-动作轨迹中学习对手模型的研究[65]。贝叶斯策略重用[66]是一个根据收益更新任务信念的贝叶斯模型,选择最大化收益的策略作为当前最可信的策略。

Hernandez等[67]提出改进的贝叶斯策略重用+

(Bayesian policy reuse+ , BPR+)算法,将贝叶斯策略重用框架从单智能体扩展到了多智能体情景,以在线方式学习新的性能模型。BPR+方法的对手模型是一个以奖励评估对手策略信任度的贝叶斯模型,选择当前最可信的策略作为对手策略。然而BPR+的局限性是它的自我博弈行为策略表现不佳。为了提升模型的泛化性,Zheng等[68]提出蒸馏策略网络-贝叶斯策略重用+(distilled policy network-Bayesian policy reuse+, DPN-BPR+),通过神经网络扩展了BPR+算法,并且根据行为和奖励信号共同检测对手策略。然而上述方法没有考虑具有复杂决策逻辑的对手策略识别问题,Yang等[69]从贝叶斯心智理论获得灵感,提出一种深度贝叶斯心智方法(deep Bayesian theory of mind, Deep Bayes-ToMoP)用于识别高层次推理策略,考虑策略库中对手策略的信任度以应对不同类型智能体。Deep Bayes-ToMoP根据心智理论的递归推理框架提供了一个更高层次的推理策略,识别应对未知的对手策略,面对复杂的决策逻辑也能获得智能体的最优对策。

 2.2.4  递归推理建模方法总结

递归推理建模方法模拟了人类的嵌套信念推理、切换策略推理等思维逻辑,从认知机理上阐述了对手建模的过程。基于递归推理的DRL-OM方法优点是能够用来显式预测行为、意图、目标、信念等认知要素,适用于建模对手的有限理性决策过程,在人类玩家数据集和简单博弈场景得到可行性验证。缺点是目前研究进展尚为初步,现有成果只能解决少数理想条件下的问题,在复杂的实际场景尚难以应用。表3对递归推理的代表性算法研究动机、创新点与局限进行了总结阐述。

表3   递归推理方法的研究动机、创新点与局限总结

3 基于DRL的隐式对手建模

隐式对手建模方法没有预置形式化的对手,而是按照任务需求利用对手信息,与深度强化学习结合影响自身决策。因此,根据对手模型的作用机理,本文将基于DRL的隐式对手建模主要方法分为:①基于辅助任务的建模方法;②基于学习表征的建模方法;③基于最大化概率推理的建模方法;④基于自我-他人交互的建模方法。

3.1   辅助任务

辅助任务是一种多任务的DRL方法[70],为智能体提供了更丰富的行为动机,适合非平稳环境的学习任务。辅助任务的建模方法设计获取对手特征的模型,修正强化学习的策略和价值函数,为强化学习提供与对手博弈的行为动机。该方法将其他智能体的观测编码作为监督信息输入神经网络进行训练,提取对手策略特征,用于修正强化学习的策略和价值函数,完成最大化奖励的目标[26,71-72]。这类方法中具有开创性的工作是He等[26]提出的深度强化对手网络(deep reinforcement opponent network, DRON)。在多智能体系统中,对手的行动将会改变环境状态转移,从而影响智能体强化学习过程的收敛性。因此,DRON同时训练Q值网络和对手策略表征网络,将对手策略表征作为环境已知条件帮助Q值网络收敛。在具体实现中,DRON在DQN的基础上改造,使用一个网络评估Q值,另一个网络则负责对手建模,以对手的行动作为输入,捕获当前对手的特征,用于学习对手策略。在此基础上,它结合多个专家网络预测估计Q值,每个专家网络捕获一种对手策略。在1v1足球比赛场景下DRON智能体与基于规则的对手智能体对抗训练,DRON智能体赢得了99.86%的进攻,并且防守成功不低于90.20%。该方法的缺点是专家网络的模型和输入需要依据先验知识手工设定。

与人工方法相比,许多研究采用监督学习的方法选取特征。例如,深度策略推理Q网络(deep policy inference Q-network, DPIQN)[71]和深度策略推理循环Q网络(deep policy inference recurrent Q-network, DPIRQN)[71]计算推断出对手策略和对手的真实观察(one-hot编码的动作向量)之间的交叉熵,提出一种自适应系数辅助修正对手模型的损失函数,用于学习对手策略的辅助任务。DPIQN和DPIRQN通过卷积神经网络处理图像数据后,将隐藏层向量分别输入Q值网络和策略特征学习网络中。策略特征学习网络是一个多层感知机或LSTM网络,用于从隐藏向量提取对手策略特征,分别用于Q学习任务和还原对手策略的辅助任务,并根据任务损失修正网络。同样在1v1足球场景中,DPIQN智能体几乎完全赢得与基于规则对手的比赛。此外,Hernandez-Leal等[72]在A3C算法的基础上实现参数共享对手建模(agent modeling by parameter sharing, AMS)。AMS-A3C算法基于一套共享的A3C神经网络结构决策和建模对手,利用修正的损失函数完成改进自身策略的强化学习任务和监督学习拟合对手行动策略的辅助任务。实验测试中,利用CNN网络从像素游戏画面提取对手的隐含特征,用于学习预测对手策略的辅助任务网络。

3.2   学习表征

学习表征的建模方法以无监督的学习形式从观测信息中提取对手的表征信息,用于增强深度学习网络的输入信息,无需数据集、奖励等先验知识,提取表征的常见结构包括图神经网络架构[73]、前馈神经网络[74]、循环神经网络[75]等。

Tacchetti等[73]提出基于图神经网络表征的关系前向模型(relational forward models, RFM),以环境中的对手收益作为监督信号,训练图网络在输入环境描述后,准确预测出对手的未来行为和奖励,并增强优势演员-评论家方法的表现。RFM模型是由图、边缘、节点及各自属性构成的图神经模型,其中产生的中间表征可以分析多智能体系统的社会属性,如边缘属性的大小能够解释对手采取行动的幅度,增删节点后计算边际奖励来衡量对手的社会关系强度和效用。此外,图神经网络表征具有很强的关系表示能力,具有网络拓展性,能够和RNN等神经网络结构结合。

Grover等[74]从设计优化损失函数的角度提出一种基于前馈神经网络的对手表征学习框架“Emb”,设计了一种基于编码器-解码器的无监督学习结构。根据不同策略对手表征的真实性和差异性设计损失函数,从与对手交互的历史数据中学习连续表征。随后,在PPO算法的基础上实现具有表征增强的PPO-Emb方法,验证了对手表征对强化学习策略的提升效果。Emb框架的优点是采用无监督学习对手特征,样本利用高效,无需任务领域知识。

3.3   概率推理

与学习辅助任务和表征的方法不同,通过引入表示“最优性”的二元随机变量o,将强化学习定义为一个概率推理问题。在非完全信息的博弈场景中,智能体的回报

由自身策略和包括对手最优策略在内的条件概率决定。因此,如式(6)所示,每个智能体的目标是在给定对手策略下最大化奖励。

(6)

Tian等[76]提出借助行动隐式通信的(policy-belief-iteration, P-BIT)多智能体团队合作方法,P-BIT方法用于团队合作中的队友建模,模型用于推理队友的私有信息,并将其作为条件最大化的条件概率下界来求解最优策略。该算法将使用期望极大(EM)算法求解决策推理问题。P-BIT在具体流程中建立信念模块

,将观测动作ht 作为输入,输出队友的私有信息,策略模块利用私有信息推测动作分布,2个模块迭代训练。为了实现协作场景下的多智能体隐式通信,该算法为策略模块的训练设置辅助奖励,以鼓励智能体信息交换。

最大熵学习[77]常用在单智能体的策略探索中,用于保证学习策略的多样性。Zheng等[78]将多智能体RL问题建模成贝叶斯推理并提出基于最大熵目标的正则化对手模型算法(regularized opponent model with maximum entropy objective, ROMMEO)。ROMMEO将智能体所获得的回报看作学习最优策略的概率下界,而优化智能体的回报需要对手行动。因此,为了最大化智能体回报,ROMMEO将对手建模策略和对手动作分布之间的KL散度作为惩罚项预测对手行动,从而保持当前对手模型的真实性。同时,以增加智能体策略熵的方式提升策略随机性,用于寻找自身的最优策略。

P-BIT和ROMMEO都将智能体交互显式建模为“最优性”条件概率的问题,提供了在不完全信息条件下的团队合作建模思路。P-BIT通过推理队友私有信息来优化条件概率下界,ROMMEO则是采用最大熵的方式推理最优策略的条件概率。它们的缺点是只适用于完全合作博弈场景下的理性决策,并且最优性策略的收敛性受对手模型的准确性影响。这些局限性较大地限制了上述方法的适用范围和实用性。

3.4   自我-他人交互

前文所述方法大多通过推理对手真实行动,观察得出对手模型的特征。与此不同的是,许多研究考虑从衡量智能体自身受到对手交互影响的角度建立对手模型。例如,当所有智能体具有相同的输入变量和模型结构,以及近似的任务目标时,智能体与对手行动的差别取决于目标奖励。根据这个理念,Raileanu等[79]提出了一种推断未知对手目标的建模方法,即自我-他人建模(self-other modeling, SOM)。与以往的方法不同,SOM不是预测对手策略作为手段,而是估计对手的目标。SOM智能体使用了2个决策网络,第1个用于计算智能体自身策略,第2个是学习对手策略的对手模型。并且SOM显式地建立了智能体的目标这一概念,将目标作为对手模型的参数,根据对手模型输出与观测真实对手行动反向传播调节参数得到对手目标。SOM能够在合作和竞争性的环境中推断目标,预测出对手的行为,表现优于独立决策智能体和基于DRQN智能体。SOM算法的优点是智能体以自身模型推断对手,不需要设定额外参数来建立对手模型,便于推断任意数量智能体的目标。其缺点是具有较强的假设,即假定智能体共享一组目标,每个个体在事件开始时都被分配一个目标,并且奖励结构取决于他们所分配的共同目标。此外,SOM算法每步都需要在线优化目标估计网络,决策时间长。

智能体需要考虑交互过程中的对手学习过程,而非将其看作静态环境的一部分。根据这一思想,Zhang等[80-81]提出需要在更新自身策略梯度时考虑对手学习策略的梯度更新,并将对手的学习过程考虑在自身策略优化中。假设智能体和对手的模型参数分别为θ1 和Δθ2 ,与优化V1(θ1,θ2) 的常规梯度优化方法不同,研究者认为具有对手学习过程的V1(θ1,θ2+Δθ2) 能够避免学习静态的对手策略。Zhang等[80]假定Δθ2 对θ1 是不可微的情况下,在二人博弈实验中取得均衡。Foerster等[81]提出的LOLA(learning with opponent learning awareness)算法则在Δθ2 对θ1 可微的假设上利用对手学习过程优化策略,提出借助对手价值函数的二阶优化项优化自身梯度。LOLA算法在囚徒博弈中实现最大双方价值的合作策略,它的缺点是无法在对手策略不可微时使用,并且忽略了对手能够察觉到LOLA对其建模并反制的情形。

3.5  隐式建模方法总结

基于DRL的隐式对手建模方法将对手观测编码后输入深度神经网络,确立学习某种特征的目标。该类方法的优点是避免显式的复杂建模过程,能够端到端地学习预测、推理。它的缺点是基于黑盒方式构建的隐式建模依赖大量交互样本学习模型,但由于隐式模型存在不确定性,因此需要平衡探索和利用之间的关系。表4详细对比了隐式建模的各类代表性算法,分别对其研究动机、创新点与局限进行了分析总结。

表4   隐式DRL对手建模方法的研究动机、创新点与局限总结

4 应用场景

DRL-OM方法起初应用于游戏领域的智能体建模,随着深度强化学习算法在现实场景中的落地应用,DRL-OM技术也拓展到军事仿真、公共安全等诸多领域。

4.1   游戏人工智能

游戏是对现实世界问题的抽象模拟,在游戏人工智能领域中,DRL-OM主要应用于为游戏智能体提供对手行动预测,提高智能体态势认知能力,进一步提高游戏局势判断的准确性,从而提升人机对抗水平。根据游戏种类的区别,对手建模可以分为棋牌类游戏、即时策略类游戏和街机格斗类游戏等不同应用类型。

棋牌类游戏具有不完美信息序贯决策的特性,因此这类游戏的智能体广泛采用基于反事实遗憾值最小化的显式建模方法。2017年1月加拿大阿尔伯特大学开发的DeepStack[82]在无限制德州扑克单挑赛中战胜所有参与的人类玩家。DeepStack采用了基于CFR理论的递归推理方法,通过强化学习值函数用于截断博弈子树,以对手遗憾值和自身范围解算残局。同年,卡耐基梅隆大学Brown等[83]研发出的Libratus在无限制德州扑克单挑赛中击败了更强的人类职业选手。Libratus在游戏初始将博弈抽象表示为“蓝图”,以便基于蒙特卡罗CFR算法的求解。游戏过程的中后期,构建“蓝图”策略内计算的嵌套子博弈求解残局,并且针对可被对手利用的弱点提出自我改进。

在即时策略类游戏中,2019年10月研究机构DeepMind提出了星际争霸II人工智能AlphaStar[8],面对异构智能体的策略学习问题,他们提出一种深度强化学习的联盟训练机制,从联盟中选取难以克服的对手作为陪练,发掘自身暴露的缺陷,以基于虚拟自博弈的显式DRL-OM方法学习历史最优策略。

对于街机格斗类游戏,2020年Tang等[84]提出自适应对手模型的滚动时域进化算法,采用交叉熵、Q学习和策略梯度等多种监督学习和强化学习等辅助任务的隐式建模方法优化预测对手行动的有效性。最终基于该算法的智能体击败了基于MCTS模型的智能体,在IEEE CoG举办的格斗游戏AI竞赛上取得最终冠军。此外,对手建模也广泛应用于第一人称射击[85-86]、足球机器人[87-89]等游戏的人工智能。

4.2   军事仿真

DRL-OM技术在军事仿真领域里具有广阔的发展前景。作为作战中辅助决策的手段,DRL-OM能够从战场获取的粗糙感知信息中精炼态势、意图,以增强判别意图遮蔽或战术欺骗的能力,从而能够为战场指挥控制节点提供高层决策支撑。广泛应用于水下航行器作战[90]、无人机集群对抗[91-93]、模拟蓝军对抗演习[94-96]等军事作战场景。

2016年,Dzieńkowski等[90]研究了考虑对手潜艇探测的自动水下机器人最优行动策略,提出一种应用于复杂海况的改进MiniMax均衡策略显式DRL-OM方法,利用神经网络模型灵活评估效用函数,并且由遗传算法调整模型参数。

2018年,空军工程大学的Huang等[91]在空战格斗中建立自主决策无人机飞行系统,利用贝叶斯推理和滚动时域优化(Bayesian inference and moving horizon optimization, BI&MHO)判断空战态势,并且基于机动惯性原理建立了对手飞行器的空中位置预测。2020年,空军工程大学的Zhou等[92]提出模拟人脑学习机制的智能空战学习框架,根据认知科学中对学习、知识和记忆的研究构建了大脑的认知机制模型。基于此模型和人类的推理能力,该方法建立了一个长期短期记忆的层次化多线程学习系统。该方法属于基于心智理论递归推理的隐式DRL-OM方法,相较BI&MHO具有更强的态势感知和对手动作预测能力。

2020年美国国防高级研究计划局(DARPA)提出“针对敌方战术的建设性机器学习作战”(constructive machine-learning battles with adversary tactics, COMBAT)项目[94],旨在建立多组由机器学习生成战术的模拟蓝军分队,通过仿真作战环境充分挖掘士兵现有战术行为的缺陷并学习制定对策。同时,该项目结合深度强化学习算法和博弈论实现复杂战场环境决策,并利用OneSAF系统[95]评估人工智能系统在人机协同回路中的战术有效性。2021年,中科院的Liu等[96]将对手建模运用在兵棋推演中。该方法在静态地图添加注意力机制,赋予其动态特征,利用CNN网络提取战场态势表征,并使用位置预测模型根据长短时记忆网络预测兵力的行动轨迹,是一种典型的基于表征学习的隐式DRL-OM方法。

4.3   公共安全

在公共安全领域,DRL-OM的研究主要集中在博弈模型求解。公共安全可以看作是一类安防博弈问题,相较一般决策问题,安防博弈需要考虑智能化适应对手行为所带来的影响,表现出极强的对抗性和动态性。安防博弈问题与对手建模研究一脉相承[97],其核心是通过博弈建模攻防双方的交互过程。根据公共安全的研究问题,对手建模的应用背景可以是交通网络安全[98-99],区域防恐威胁[100-101]、自动驾驶[102-103]、信息网络安全[104]等场景。

针对交通网络问题,Zhang等[98]提出了在道路网络中封锁犯罪分子逃逸路线的研究,设计一种封锁道路的攻击者-防御者安全博弈模型,并结合基于混合整数线性规划公式的最佳响应和基于高效双Oracle算法[58]的有效近似来计算最佳的防御策略。Xue等[99]将NFSP模型运用在大规模扩展式的网络安防博弈(network security games, NSGs)中,并使用斯坦伯格博弈的形式求解。首先,模型将NFSP中的最佳响应策略网络从行动-状态改造为行动-价值的映射,使NSGs中最佳响应的计算成为可能。随后,将NFSP智能体的平均策略网络转换为基于度量的分类器,为智能体提供高水平的行动,通过学习高效的图节点嵌入来利用NSGs图中包含的信息,模型在可扩展性和质量方面都有显著提升。

在区域防恐的应用中,Jain等[100]针对区域恐怖袭击研究城市警力资源分配,将问题建模成零和博弈,并使用双Oracle算法求解。现有研究缺乏动态调整资源分配的能力,因此,Zhang等[101]建立了一个模拟逃逸对手和有多个资源和实时信息的防御者之间交互过程的博弈模型,并设计增量策略生成算法求解。

此外,DRL-OM关注车辆自动驾驶的道路安全性问题。Tian等[102]研究了交叉路口交通场景,建立表示环形交叉口两车交汇的博弈论模型,提出了一种基于车辆交互模型并适应对手车辆驾驶员类型的环形交叉口自我决策算法。Notomista等[103]提出一种意识增强的纳什均衡搜寻方法解决车辆竞速的交互问题,采用避免碰撞的约束条件刻画与对手车辆的竞争关系,并且在对手模型存在不确定性下提出鲁棒性保护条件。

4.4   公共测试基准

针对深度强化学习领域内的通用问题,已有一系列学界公认的测试基准环境,如OpenAI GYM[105]、MuJoCo[106]、Fight ICE[107]等。基于这些开源框架,最先进的深度强化学习算法得以实现和对比。对于对手建模问题,特别是针对DRL-OM算法研究还没有形成统一的公共测试基准。

根据研究问题场景的具体要求,研究者提出了各式各样特性的实验环境。为了便于后续研究,本节根据场景特性对深度对手建模方法的实验场景进行分类:①按可观测信息的特性,可分为全局可观和部分可观实验场景;②按合作关系,实验场景可以分为合作(Cooperative)、竞争(Competitive)、混合(Mixed) 3种;③按智能体在环境中的行动顺序,实验场景可以分为同步决策、序贯决策实验场景。

跟据前文提及的可观测信息、合作关系、行动顺序等环境特征,从博弈论的角度,可将应用DRL-OM的问题分为扩展式博弈、马尔科夫博弈、团队马尔科夫博弈、部分可观马尔科夫过程、离散部分可观马尔科夫过程5种。

常见的实时环境仿真都是同步行动,即智能体间没有先后顺序,同时在环境中采取行动。此时若智能体能够完整观测状态,那么该博弈称为马尔科夫博弈(Markov game, MG)问题[108],实验场景例如囚徒困境问题和硬币博弈等。在MG问题中,如果各个智能体通过合作来最大化共同的回报,将其称为团队马尔科夫博弈[109](team Markov game, Team MG)。

假如智能体的观测是局部的,对于利用个人目标实现集体回报最大化的,称为离散部分可观马尔科夫过程[110](decentralized partially observable Markov decision process, Dec-POMDP),其他的博弈称为部分可观马尔科夫过程(POMDP)。棋牌类游戏常见的是序贯决策,当一方结束行动后,另一方开始行动,能够建模成扩展式博弈(extensive form games, EG)问题[111]。此外,按照状态、动作的表示也分为连续空间和离散空间。处理不同空间数量级的问题,适用的算法也相应不同。

在上述维度划分的基础上,表5汇总梳理了深度强化对手建模方法中常见的仿真场景、对应方法及其特性,并按照提出的博弈分类方法加以定义。为后续研究提供参考。

表5   常见实验场景、博弈模型、文献来源与问题特性

5 关键问题与发展方向

当前DRL-OM方法普遍面临着决策实时性差、难以应对非平稳性、模型学习效率低、无法有效地识别和使用欺骗以及对手利用等热点问题,为了在现实应用中更好地发挥作用,未来该领域可以从有模型强化学习、对手建模算法鲁棒性、对手快速适应性等方向开展研究。对此,本节针对关键问题和发展方向分别展开分析与探讨。

5.1   关键问题

 5.1.1  实时性决策

现实应用中的即时决策场景十分常见,如竞技体育、战术决策等需要在短时间内做出反应决策。在强实时性的场景中,智能体面临着同时考虑计算准确性和效率的问题。Tang等[84]在滚动时域算法的基础上,使用深度强化学习预测对手行动,优化对手建模的有效性,实现了双人格斗游戏的博弈推理。然而,在多人在线游戏、大规模作战仿真等应用[10]中,面临的是多人实时博弈这种更为复杂的情况,实现这类场景下对手建模的实时性决策是亟需解决的难题。

 5.1.2  非平稳性建模

非平稳性是指对手策略、环境状态转移、环境奖励不断发生变化,从而打破了MDP环境的马尔科夫性质,使得智能体无法学习到稳定的最优策略[117]。诸如部分可观测、环境动态变化、对手策略学习等因素都会导致智能体的学习环境非平稳。因此,非平稳性智能体需要权衡模型学习潜在误差所导致的不确定性和在不确定性下的对手模型利用。例如,智能体无法获取对手当前的状态和动作信息,只能利用自身局部信息进行推理。为此,研究者通过无监督学习[118-119]从自身观测中提取被建模者的历史轨迹特征,建立对手模型。Papoudakis等[112-113]基于局部信息建模,采用变分自编码器(variational autoencoders, VAEs)学习历史轨迹的策略表征,并将其用于A3C算法的决策过程。然而,在智能体共同学习、智能种群演化等复杂动态问题中[43],策略难以收敛到静态最优,智能体陷入不断学习的循环。解决这类复杂任务中的非平稳性也是DRL-OM方法尚未解决的难题。

 5.1.3  模型学习效率

如何快速准确地训练对手模型,提升数据利用率是对手建模的关键问题。一方面,DRL-OM方法需要巨大的训练量和准确的奖励值作为指导,现实世界中的任务无法满足上述条件,因此,限制了应用场景[120-121];另一方面,具有自适应能力的对手策略导致模型不断变化,交互数据具有时效性,快速适应对手动态变化是解决方法之一[122]。因此,如何避免学习过程消耗大量样本,从而以较少数据量在线学习到对手的策略是提升模型学习效率的关键问题。

 5.1.4  欺骗与对手模型利用

智能体如何使用欺骗策略和如何识别对手欺骗策略是对手建模研究的关键问题。在棋牌游戏中,智能体采用诈唬策略诱使对手放弃应有的收益[123]。在即时策略类游戏中,通过“示弱”诱敌深入,放弃短期高收益的策略而采用伪装策略迷惑敌人[124],这些都是典型的欺骗策略。Bontrager等[125]分析了基于DRL的智能体在欺骗性游戏中的表现,实验结果表明对比规划类方法,DRL方法无法有效地应对环境中的欺骗。尽管对手建模的子领域意图识别提供了诸多识别欺骗的解决方案[126-127],但是当前的DRL-OM方法缺少对欺骗行为的研究,这一领域有很大的研究潜力。

对手利用(opponent exploitation)指发现对手有限理性的弱点,并根据对手偏离绝对理性的行动制定收益更高的策略。衡量对手策略可利用度的方式是对手策略与纳什均衡策略期望收益之间的差值[128]。Ganzfried等[129]提出博弈安全策略的表示形式,保证自身安全的同时利用对手的非最优策略,并在Kuhn扑克中超越学习纳什均衡策略的方法。DRL算法如何安全利用对手智能体,以及在更复杂场景计算对手利用策略,是DRL-OM领域值得探究的问题。

5.2    发展方向

 5.2.1  有模型强化学习研究

在现有的对手建模方法中,自身智能体将其余智能体连同环境一起看作整体建模,忽视了对手模型在外部环境中的演化过程,无法有效地推理对手的行为。研究者们希望借助有模型强化学习显式地建立环境动力学模型[130-132],将对手和环境之间的耦合进行拆解,帮助智能体更好地进行推理。

为此,Yu等[87]提出一种基于环境模型的贝叶斯递归推理方法,通过贝叶斯定理分配对手采取每种策略的权重,并将不同递归层次的策略组合构成对手策略,该算法在保证效率的同时避免了获取对手先验知识。Zhang等[132]将有模型强化学习的模型误差分为环境动态误差和对手模型误差,开发了自适应调整采样长度的对手建模误差控制方法,使用虚拟的对手和环境模型自演交互以扩充样本数据,达到高效利用数据的目的。

 5.2.2   对手建模鲁棒性研究

DRL-OM方法通常需要智能体与对手进行长时间的交互训练,由于采样存在不稳定性,策略更新容易发生策略遗忘和崩塌的情况[133]。算法鲁棒性研究的是深度学习算法与环境进行交互时,如何保证策略不受限于局部最优以及策略不因采样误差而在更新中变差的问题[134-136]。除此之外,仿真环境与现实系统出现不匹配时,对手建模算法的鲁棒性决定了能否在模型迁移后保证其实用性[137-138]。

针对单个网络模型对策略表示能力不足的问题,Shen等[115]在学习对手策略时采用集成学习方法[139]训练多个网络共同表示当前对手模型,提高了模型的鲁棒性。除了集成学习思想,知识蒸馏也是提高模型准确性的一种方法[140]。知识蒸馏综合了多种专家网络,压缩网络结构信息,保留学习到的知识,经过知识蒸馏后的对手策略模型仍然保留了网络的对手特征提取能力[68,115]。

 5.2.3  对手快速适应性研究

对手建模面临着难以适应具有学习能力的对手以及对新出现对手的重新适应等问题,元学习是实现智能体快速学习的途径[141-144]。一方面,它通过掌握已有的经验知识来指导新的任务,解决了重新训练和奖励函数构造的难题;另一方面,针对复杂动作空间的对手建模,元学习提供更高层次的策略控制。例如,Kim等[145]提出一种多智能体元策略梯度方法,将多智能体博弈过程建立为一种联合策略马尔科夫链,使用梯度优化主体智能体的初始参数,同时链式更新对其他智能体,达到快速适应对手的目的。

针对异构和不同机器学习方法的智能体,研究人员提出几种适应方法。Davies等[114]提出学习模仿对手模型(learning to model opponent learning, LeMOL),利用双向长短时记忆网络存储情节记忆,并模仿对手的学习过程。此外,Kim等[145]考虑单个智能体的轨迹影响对手学习过程的情况,提供了可解释的异构智能体学习框架。

6 结论

本文旨在梳理深度强化学习算法在对手建模中的研究。首先,介绍了对手建模的研究背景,以及传统对手建模研究的不足之处,进一步介绍了基于深度强化学习的对手建模思想。随后,梳理了当前流行的深度强化学习算法,并且根据建模机理将DRL-OM方法划分为显式建模和隐式建模,分析了各类方法的思想、特性、局限和适用场景。针对深度强化学习的应用问题,本文汇总了游戏AI、军事仿真、公共安全3个应用领域,梳理了现有研究的实验测试场景。最后,探讨了DRL-OM实现复杂现实应用面临的关键问题,并对DRL-OM方法的发展方向进行了展望。

本文仅用于学习交流,如有侵权,请联系删除 !!

加V “人工智能技术与咨询”  了解更多资讯 !!

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值