原文来源:arXiv
作者:DeepMind
「雷克世界」编译:嗯~阿童木呀、多啦A亮
「机器人圈」正式更名为「雷克世界」,后台回复「雷克世界」查看更多详情。
相信那些时刻关注深度强化学习的人士都知道,深度强化学习社区已经对DQN算法进行了若干次独立的改进。但是,目前尚不清楚这些扩展中的哪些是互补的,同时可以有效地组合在一起。本文研究了DQN算法的六个扩展,并对其组合进行了实证研究。我们的实验表明,从数据效率和最终性能方面来说,该组合能够在Atari 2600基准上提供最为先进的性能。我们还提供详细的消融研究结果(ablation study),该研究结果显示了每个成分对整体性能的影响。
图1:在57 Atari游戏中,中等人类水平的表现。我们将我们的集成智能体(彩虹色)与DQN(灰色)以及六个已发布的基准进行比较。需要注意的是,在700万帧之后我们会得到与DQN的最佳性能匹配,超过4400万帧内的任何基线,并且显著地提高了最终性能。曲