Nature发表 | DeepMind重大突破:真正的自学成才(完美信息型对抗)「AI核心算法」...

关注:耕智能,深耕AI脱水干货

作者:Deepmind 来源:新智元、机器之心

转载请联系作者

提要:DeepMind在Nature发表了重要成果:MuZero算法,相比于AlphaZero,该算法通过结合基于树的搜索和学得模型,可在不能够在未知环境中计划胜利的策略,MuZero 掌握围棋、国际象棋、shogi 和 Atari ,而不需要被告知游戏规则。且搜索性能优于AlphaZero。在雅达利2600游戏中达到了SOTA表现,在国际象棋、日本将棋和围棋的精确规划任务中可以匹敌AlphaZero,甚至超过了提前得知规则的围棋版AlphaZero。这是在寻求通用人工智能算法方面迈出的重要一步。

论文PDF下载,请在公众号回复:20201225

       

概述 

多年来,研究人员一直在寻找方法,既可以学习一个模型,解释他们的环境,然后可以使用该模型来规划最佳的行动方案。到目前为止,大多数方法都难以有效地在不同domain之间规划,比如 Atari,其中的规则或动态通常是未知的和复杂的。

 

MuZero 最初在2019年的一篇初步论文中被首次提出,通过学习一个只关注规划environment最重要方面的模型来解决这个问题。通过将这个模型与 AlphaZero 强大的lookahead tree search相结合,MuZero 在 Atari benchmark上达到了SOTA,同时在围棋、国际象棋和将棋的经典规划挑战中与 AlphaZero 的表现相匹敌。通过这样做,MuZero 展示了强化学习算法能力上的一个重大飞跃。

          

MuZero算法解析 

 算法概览

MuZero 基于 AlphaZero 强大的搜索和基于搜索的策略迭代算法,但又将一个学习好的模型整合到了训练步骤中。MuZero 还将 AlphaZero 扩展到了一个更加广泛的环境集合,包含单个智能体域和中间时间步上的非零奖励。

该算法的主要思路是预测那些与规划直接相关的未来行为(如下图 1 所示)。模型将接收到的观察结果(如围棋棋盘图像或雅达利游戏截图)作为输入,然后将其转换为一个隐藏状态。接下来,通过一个循环过程来迭代更新该隐藏状态,该循环过程接收前一个隐藏状态和假设的下一步操作。

在每一个步骤上,模型会预测策略(如玩的动作)、价值函数(如预测的赢家)以及即时奖励。对模型进行端到端训练的唯一目标是准确估计这三个重要的量,以匹配改进的策略估计和通过搜索及观察到的奖励生成的值。

对于隐藏的状态,没有直接的约束和要求来捕获重建原始观察结果所需的信息,大大减少了模型维护和预测的信息量;也没有要求隐藏状态匹配环境中未知、真实的状态;更没有针对状态语义的其他约束。

相反,隐藏状态能够地以任何与预测当前和未来值和策略相关的方式来表示状态。直观地说,智能体可以在内部创建规则和动态,以实现最精确的规划。

图 1:用一个训练好的模型进行规划、行动和训练。(A)MuZero 利用其模型进行规划的方式;(B)MuZero 在环境中发生作用的方式;(C)MuZero 训练其模型的方式。

算法详解

研究者对 MuZero 算法进行了更详细的解读。在每个时间步 t 上、以过往观察结果 O_1, …, O_t 和未来行为 a_t+1, …, a_t+k 为条件、通过一个具有参数θ的模型µ_θ,为每个 k=1…K 步进行预测。该模型预测三种未来数量:策略、价值函数和即时奖励,其中 u. 表示观察到的正确奖励,π表示用来选择实时行动的策略,γ表示环境的贴现函数(discount function)。

在每个时间步 t 上,MuZero 模型由表征函数、动态函数和预测函数联合表征。在本文中,研究者对动态函数进行了确切的表征。策略和价值函数则通过预测函数并根据内部状态 s^k 来计算,这与 AlphaZero 的联合策略和价值网络相似。

给定这样一个模型,则有可能在基于过往观察结果 O_1, …, O_t 的情况下查找基于假设的未来轨迹 a^1, …, a^k。例如,一个简单的搜索可以轻松地选择最大化价值函数的 k 步动作序列。更普遍地说,我们或许可以将任何 MDP(马尔科夫决策过程)规划算法应用于由动态函数推导出的内部奖励和状态空间。

对于每个假设的时间步 k,模型的所有参数接受联合训练,从而在 k 个实际的时间步后,对策略、价值和奖励与它们各自对应的目标值进行精确的匹配。与 AlphaZero 相似,提升后的策略目标通过蒙特卡洛树(MCTS)搜索生成。第一个目标是最小化预测策略 p^k_t 和搜索策略π_t+k 之间的误差;第二个目标是最小化预测值 v^k_t 和价值目标 z_t+k 之间的误差;第三个目标是最小化预测奖励 r^k_t 和观察到的奖励 u_t+k 之间的误差。最后添加 L2 正则化项,得出以下总损失:

实验结果

在实验中,研究者将 MuZero 算法应用于围棋、国际象棋和日本将棋等经典棋盘游戏中,作为挑战规划问题的基准;同时又应用于雅达利游戏环境中的 57 个游戏,作为视觉复杂强化学习领域的基准。

下图 2 展示了 MuZero 算法在每个游戏训练中的性能。在围棋游戏中,尽管搜索树中每个节点的计算量小于 AlphaZero,但 MuZero 的性能依然略微超过 AlphaZero。这表明 MuZero 可能在搜索树中缓存自身计算,并利用动态模型的每个附加应用来对位置产生更深的理解。

图 2:MuZero 算法分别在国际象棋、日本将棋、围棋和雅达利游戏训练中的评估结果。在国际象棋、日本将棋和围棋游戏中,横坐标表示训练步骤数量,纵坐标表示 Elo 评分。

表 1:雅达利游戏中 MuZero 与先前智能体的对比。研究者分别展示了大规模(表上部分)和小规模(表下部分)数据设置下 MuZero 与其他智能体的对比结果,表明 MuZero 在平均分、得分中位数、Env. Frames、训练时间和训练步骤五项评估指标(红框)取得了新的 SOTA 结果。

为了了解 MuZero 中模型的作用,研究者还重点在围棋和吃豆人雅达利游戏中进行了以下几项实验。他们首先在围棋的典型规划问题上测试了规划的可扩展性(下图 3A)。此外,他们还研究了所有雅达利游戏中规划的可扩展性(下图 3B)。接着,他们将自己基于模型的学习算法与其他相似的无模型学习算法进行了比较(下图 3C)。

图 3:MuZero 在围棋、57 个雅达利游戏、吃豆人游戏上的评估结果。

 

小结 

 

MuZero 既能够学习环境模型,又能够成功地使用它来进行计划,这证明了在强化学习算法和通用人工智能算法方面的重大进步。

 

它的前身 AlphaZero 已经应用于化学、量子物理等领域的一系列复杂问题。而 MuZero 强大的学习和规划算法背后的理念,可能为应对机器人技术、工业系统以及其它游戏规则尚不为人知的混乱现实环境中的新挑战铺平了道路。

历史精华好文

交流合作

请加微信号:yan_kylin_phenix注明姓名+单位+从业方向+地点,非诚勿扰。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值