进阶篇---TD3(Twin Delayed DDPG)

进阶篇—TD3(Twin Delayed DDPG)

这篇文章研究了actor-critic类算法里面消除overestimation bias的方法。同时,还研究了target network在TD update中消除累积误差的作用。
1、消除overestimation bias
与Double DQN类似,使用两个网络交替更新
由于agent每次都会选择价值高的动作,因此高估的估计误差会累积起来,因此,我们宁可低估不可高估
在这里插入图片描述
2、target network
当policy固定不变的时候,是否使用target network其价值函数都能最后收敛到正确的值;但是actor和critic同步训练的时候,不用target network可能使得训练不稳定或者发散。算法的中critic的更新目标都由target network计算出来,因此采用了delayed policy update,即以较高的频率更新价值函数,以较低的频率更新policy。
3、使用target policy smoothing regularization
希望学到的价值函数在action的维度上更平滑,因此价值函数的更新目标每次都在action上加一个小扰动
在这里插入图片描述
把以上三个改进综合起来,得到TD3

结果

代码参见我的GitHub
在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值