深度强化学习DQN

本文介绍了深度强化学习中的DQN模型,该模型通过卷积层处理连续帧图像,得出动作的Q值。讨论了DQN算法的发展,包括NIPS 2013和Nature 2015年的研究,指出了Replay Memory导致的不足,如无法应对连续动作控制和长时记忆问题。后续研究尝试用LSTM等方法进行改进。
摘要由CSDN通过智能技术生成

DQN模型

在这里插入图片描述
输入的是处理后的连续帧图像(降维幅度图),经过卷积层层后接两个全连接层,输出是所有动作的Q值。

算法

1. NIPS 2013

在这里插入图片描述

2. Nature 2015

2.1 算法

在这里插入图片描述

2.2 流程图

在这里插入图片描述
在这里插入图片描述

3. 不足

由于Replay Memory原因:

  1. 无法应用于连续动作控制;
  2. 只能处理只需短时记忆问题,无法处理需长时记忆问题(后续研究提出了使用LSTM等改进方法);
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值