Double DQN with Prioritized Experience Reply


主要是学习了一下 tianshou的源代码来增加一些水平。看看好的开源库总是不错的。记录一下学到的知识。

Double DQN部分

  1. target net一直是eval的
  2. 只需要将new net的更新从
    r + γ Q ′ ( s ′ , a r g m a x ( Q ′ ( s ′ , a ′ ) ) ) r + \gamma Q^{'}(s', argmax(Q'(s', a'))) r+γQ(s,argmax(Q(s,a)))
    变成
    r + γ Q ′ ( s ′ , a r g m a x ( Q ( s ′ , a ′ ) ) ) r + \gamma Q^{'}(s', argmax(Q(s', a'))) r+γQ(s,argmax(Q(s,a)))
    即可。并不需要弄个 Q A Q_A QA Q B Q_B QB一起更新啥的,还是new和old两个相对的网络。

Prioritized Experience Reply部分

虽然sum tree的结构很神奇,但是tianshou实现的时候用了很简单的indice = np.random.choice( self._size, batch_size, p=(self.weight / self.weight.sum())[:self._size], replace=self._replace)
直接用p这个参数搞定了。

另外我感觉这里他没有把important sampling的结果归一化?impt_weight = Batch( impt_weight=1 / np.power( self._size * (batch.weight / self._weight_sum), self._beta))

其他

compute_nstep_return()函数

首先,buffer是一个顺序存储结构,从不乱序

然后唯一的限制就是说一定是最后一个episode完整跑完了再做,即使它从前面覆盖了第一个episode也行

这个buffer占满了之后就从第一个位置开始继续覆盖放了

然后,indice是sample的样本在buffer中的坐标,是这个代码体系中从buffer sample后自带的

从每个indice+n_step开始算reward,倒着乘以gamma累加

然后万一开始的indice是一个被覆盖了的episode,当走到done这个位置时,

令return=0,也就是刚刚算的done之后的都不要了,相当于最后算的是新的:
----------|<-倒着算–|
-------done-----------
----------|<-不要了->| 不要也就是下面那个reward=0

代码中的gammas是说最后算完之后q = return + target_q * gamma的gamma

因为有done 的情况下,不一定都是n,所以特殊算了一下

returns = np.zeros_like(indice)
gammas = np.zeros_like(indice) + n_step
done, rew, buf_len = buffer.done, buffer.rew, len(buffer)
for n in range(n_step - 1, -1, -1):
    now = (indice + n) % buf_len
    gammas[done[now] > 0] = n
    returns[done[now] > 0] = 0
    returns = (rew[now] - mean) / std + gamma * returns
terminal = (indice + n_step - 1) % buf_len
target_q = target_q_fn(buffer, terminal).squeeze()
target_q[gammas != n_step] = 0
returns = to_torch_as(returns, target_q)
gammas = to_torch_as(gamma ** gammas, target_q)
batch.returns = target_q * gammas + returns
return batch

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值