DQN(Deep Q-Network)

本文深入探讨了深度Q网络(DQN),一种结合深度学习和强化学习的算法。DQN通过经验回放和目标网络解决数据相关性问题,用于从高维输入中学习控制策略。在游戏环境如Breakout和Seaquest上的实验表明其有效性和学习能力。
摘要由CSDN通过智能技术生成

Hi,这是第一篇算法简介呀

论文链接: “Human-level control through deep reinforcement learning”,2013.

文章概述

  本文首次提出了一种深度学习模型,利用强化学习的方法,直接从高维的感知输入中学习控制策略。
  DL算法需要大量手工标记数据,而RL中从输入到获得reward信号存在稀疏、有噪声和延迟的问题。DL算法假设data是独立的;而在RL中data的关联度较高,改变数据分布后,RL可以学习到新行为。
  本文提出的模型可以克服以上挑战。该网络使用Q-learning的变体,采用随机梯度下降法更新weights,使用经验回放机制解决数据相关性问题和非平稳分布问题。

  • replay memory
    存储每个时间步 t t t的agent的经验 e t = ( s t , a t , r t , s t + 1 ) e_t=(s_t,a_t,r_t,s_{t+1}) et=(st,at,rt,st+1)。每步经验可以用于多次weights更新,提高数据利用效率。
  • 网络结构设计
    network
    (我理解的简图)
input:raw pixels
16个filters:非线性变换
32个filters
全连接层
output:每个action对应的Q-value

  (p.s.每个可能的action对应一个独立的output unit)

  • Target网络
    用于固定参数。每隔一定episode与Main网络同步权重。

公式理解

  • 未来折扣回报
    R t = ∑ t ′ = t T γ t ′ − t r t ′ R_t=\sum_{t'=t}^T \gamma^{t'-t}r_{t'} Rt=
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值