各种DQN

本文介绍了深度强化学习中的Q-learning、DQN及其重要改进。内容涵盖DQN的基本原理,结合深度学习的Q值估计;Double DQN通过分离选择和评估策略减少过估计问题;Priority Experience Replay优化经验回放缓冲区的采样策略;Dueling DQN采用双流结构分别估计状态价值和优势函数,提高学习效率。
摘要由CSDN通过智能技术生成

Q-learning

   

DQN

论文:Human-level control through deep reinforcement learning
DQN其实就是将深度学习与Q-learning结合起来了,建立了卷积神经网络来估计Q值。
    
  建立了Q network,Q target network( Q̂  )两个网络,对每一个episode,t时刻时,对于状态 st ,利用 ϵ -greedy选择一个action at=argmaxaQ(ϕ(st),a;θ) ,执行 at 之后获得reward和下一状态 ϕt+1 ,将当前状态 ϕt 、动作 at 、奖励 rt 、下一状态 ϕt+1 储存在D中。然后从D中随机选择一个batch的sample (ϕj,aj,rj,ϕj+1) .通过最小化

(rj+γmaxaQ̂ (ϕ
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值