Double DQN

论文链接:https://arxiv.org/abs/1509.06461

由于深度神经网络提供了灵活的函数逼近与低渐近逼近误差的潜力,DQN 在 Atari 2600 游戏中的带来了更好的性能。但是,DQN有时也会大大高估行动的价值。使用 DQN的改进版本(Double DQN)能够产生更准确的值估计,减少 DQN 的过高估计,从而在游戏中获得更高的分数。

给定策略 π \pi π ,在状态 s 采用动作 a 的真实值为:
在这里插入图片描述
标准 Q-learning 算法的参数更新方式:
在这里插入图片描述
在这里插入图片描述

DQN 的目标Y值为:
在这里插入图片描述
标准 Q-learning 和 DQN 的目标Y值计算中使用了 max 操作(公式2和3),其使用了相同的值来选择和估计动作。这使得它更有可能选择高估计的值,从而导致值的高估计。为了避免这种情况的发生,将选择动作和求值进行解耦。这就是 Double DQN 的核心。

Double DQN 使用行为网络选择出value最大的action,用目标网络来估计它的值。对应的,公式(2)的目标改写为:

在这里插入图片描述

Double DQN 的算法伪代码与 DQN 一致,仅仅是目标Y的公式进行了修改:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值