论文笔记2:Deep Attention Recurrent Q-Network

参考文献:[1512.01693] Deep Attention Recurrent Q-Network (本篇DARQN)

[1507.06527v3] Deep Recurrent Q-Learning for Partially Observable MDPs(DRQN,可参见我上一篇笔记)

目前网上我搜到的论文笔记参考:论文笔记之:Deep Attention Recurrent Q-Network


创新点:将DQN(其实是更进一步的DRQN)与attention mechanism(注意力机制)结合

改进:基于DRQN,在CNN与LSTM之间加入了attention network(注意力网络)(作者也说这里其实可以看做LSTM额外增加了一个过滤门)

改进原因:

1、DQN在需要4帧以上的图像时效果不好,并且DRQN没有太大的系统上的性能提升。

2、DQN训练时间长,参数太多

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Attention DQN(DQN with attention)是一种结合了注意力机制的深度Q网络(Deep Q-Network)。在传统的DQN中,网络只关注整个游戏屏幕的状态,而Attention DQN引入了注意力机制,使得网络可以专注于游戏屏幕中的特定区域。这意味着网络可以更加精细地感知游戏中的重要信息,提高了网络的学习效果和性能。通过内置的attention机制,可以实现在线监测训练过程,高亮显示agent正在关注的游戏屏幕区域。 引用中提到,Attention DQN是在DQN的基础上进一步发展而来的,结合了注意力机制。这一创新点使得网络能够更好地理解游戏的局部信息,并根据这些信息做出更准确的决策。 参考文献中的《Deep Attention Recurrent Q-Network》(DARQN)是关于Attention DQN的一篇重要研究论文,通过引入递归机制,进一步加强了网络对游戏中局部信息的处理能力。这些技术的引入使Attention DQN在强化学习任务中取得了显著的性能提升。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [论文笔记2:Deep Attention Recurrent Q-Network](https://blog.csdn.net/yyyxxxsss/article/details/80467093)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值