DeepMind最新论文提出「Rainbow」,将深度强化学习组合改进

DeepMind的最新论文研究了DQN算法的六个扩展,并将它们组合成名为「Rainbow」的智能体,实现了在Atari 2600基准上最佳的数据效率和最终性能。Rainbow智能体结合了双DQN、优先化经验回放、竞争网络、多步学习、分布式Q-learning和噪声DQN等组件,大幅提升了性能。实验结果显示,这些组件在很大程度上是互补的,并且在57个Atari游戏中超越了现有基准。
摘要由CSDN通过智能技术生成


原文来源:arXiv

作者:DeepMind

「雷克世界」编译:嗯~阿童木呀、多啦A亮


「机器人圈」正式更名为「雷克世界」,后台回复「雷克世界」查看更多详情。


相信那些时刻关注深度强化学习的人士都知道,深度强化学习社区已经对DQN算法进行了若干次独立的改进。但是,目前尚不清楚这些扩展中的哪些是互补的,同时可以有效地组合在一起。本文研究了DQN算法的六个扩展,并对其组合进行了实证研究。我们的实验表明,从数据效率和最终性能方面来说,该组合能够在Atari 2600基准上提供最为先进的性能。我们还提供详细的消融研究结果(ablation study),该研究结果显示了每个成分对整体性能的影响。

 

图1:在57 Atari游戏中,中等人类水平的表现。我们将我们的集成智能体(彩虹色)与DQN(灰色)以及六个已发布的基准进行比较。需要注意的是,在700万帧之后我们会得到与DQN的最佳性能匹配,超过4400万帧内的任何基线,并且显著地提高了最终性能。曲

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值