深度强化学习:(三)DQN

1、DQN算法

2、RL算法

 

3、举例总结

  1. 强化学习是一个马尔科夫决策过程, 它的目标是追求累计回报最大化max{Gt}, 值函数V(s)是对状态s能获得的累计回报的估计, 也就是V(s)=E(Gt | St = s), 根据贝尔曼方程V(St)与V(St+1)的关系为: V(St) = E( Rt+1 + r*V(St+1) | St = s)

  2. 引入动作后有动作-值函数 Q(St, At), Q(St, At)=E(Gt | St = s ,At = a),根据贝尔曼方程Q(St, At)与Q(St+1, At+1)的关系为:       Q(St, At) = E( Rt+1 + r*Q(St+1, At+1) | St = s,At = a)

  3. 用 Q-Target网络输出近似代替一回合中最后一步的基于贝尔曼期望方程Q(St+1, At+1),                                          Qtarget(St, At) = Rt+1 + r*Q(St+1, At+1), 可以从后往前迭代算的每个s的Qtarget(或者每一步都用Q-Taeget网络计算),每一个s都可以用Q-Eval网络算出Qeval

  4. 一个回合中每个s都有(Qtarget - Qeval)^2,在这个回合中求其均方差E((Qtarget - Qeval)^2)作为梯度,优化网络参数,  最后可以得到贝尔曼最优方程 , 即每个s的最优动作-值函数, 从而可以得到最优策略.  

     

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值