MuZero:通过学习模型规划,精通雅达利、围棋、国际象棋和将棋

论文摘要:利用学习模型进行规划

这篇论文由DeepMind的Julian Schrittweiser和团队撰写,是对AlphaZero的扩展研究。AlphaZero是一款著名的算法,通过自我对弈学习玩围棋和象棋。该论文的亮点在于它使用了一个 学习到的环境模型

传统规划方法:在象棋等游戏中,规划需要了解游戏规则,例如象棋的棋子移动规则。通过这些规则,可以构建一个搜索树,预测未来可能的走法和局面。由于游戏规则明确,可以准确预测每个走法的结果。

学习模型的优势:在像Atari这样的游戏中,没有明确的游戏规则。我们只能看到屏幕上的像素,并不知道游戏机制、敌人的动作或游戏胜利条件。传统规划方法无法应用。

论文贡献:该论文提出了一种利用学习模型进行规划的方法。通过学习游戏环境,可以对未来的状态进行预测,并进行规划。这使得在没有明确规则的情况下,也能进行有效的规划。

总结:这篇论文展示了学习模型在规划中的应用,为在复杂环境中进行决策提供了新的思路。

MuZero 利用了 AlphaZero 的力量,但无需依赖准确的环境模型。这为完全没有这种环境模型的新领域打开了基于规划的强化学习的大门。与之前工作的不同之处在于,MuZero 并非学习预测未来观察结果的模型,而是预测未来观察结果的潜在表示,因此学习仅表示对任务重要的内容!摘要:构建具有规划能力的智能体一直是人工智能追求的主要挑战之一。基于树的规划方法在棋盘游戏等具有挑战性的领域取得了巨大成功,例如国际象棋和围棋,因为这些领域拥有完美的模拟器。然而,在现实世界问题中,支配环境的动力学往往复杂且未知。在这项工作中,我们提出了 MuZero 算法,该算法通过将基于树的搜索与学习模型相结合,在各种具有挑战性和视觉复杂性的领域实现了超人的性能,而无需任何关于其底层动力学的知识。MuZero 学习了一个模型,该模型在迭代应用时,预测与规划最直接相关的量:奖励、动作选择策略和价值函数。当在 57 款不同的 Atari 游戏(用于测试人工智能技术的典型视频游戏环境,其中基于模型的规划方法在历史上一直很挣扎)上进行评估时,我们的新算法实现了新的技术水平。当在围棋、国际象棋和将棋上进行评估时,在没有任何游戏规则知识的情况下,MuZero 匹配了提供游戏规则的 AlphaZero 算法的超人类性能。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YannicKilcher

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值