OfflineRL——BCQ算法

Offline RL

最近在看一些offline RL的内容,本文主要是介绍一个offline RL的经典算法——BCQ算法。先了解一下Offline RL 的概念。

概念

Offline RL即离线强化学习。offline RL也叫batch RL,它的基础setting是:有一个强化学习环境下得到的数据集,一个这样的四元组 ( s t , a t , r t , s t + 1 ) (s_t,a_t,r_t,s_{t+1}) (st,at,rt,st+1)。我们的目标是在不与环境交互的情况下,仅通过这个数据集,学出一个最好的策略 π \pi π

事实上所有的off-policy算法都可以用来做Offline-RL。像DQN、DDPG这样的off-policy方法,有一个用来存储之前采集的数据replay buffer。其实当这个replay buffer足够大时,我们就可以看成是Offline-RL。

与模仿学习的区别

当数据质量足够好,比如说轨迹都是专家策略生成的数据时,可以直接进行模仿学习imitation learning。offline-RL与模仿学习的区别在于,offlineRL理论上可以利用任意策略采样的离线数据学习得到最优策略,而模仿学习必须是模仿专家策略采样的数据。

与online和off-policy的区别

online RL: 每次的策略 π k + 1 \pi_{k+1} πk+1 更新时,是基于从环境中获取到的流数据(也就是序列 s i , a i , r i , s i ′ s_i,a_i,r_i,s'_i s

  • 6
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值