model-based 强化学习分类

转载自:https://zhuanlan.zhihu.com/p/72642285

model-based RL这个方向的工作可以根据environment model的用法分为三类:

1.作为新的数据源:environment model 和 agent 交互产生数据,作为额外的训练数据源来补充算法的训练。
2.增加决策的context信息:在进行Q值或者V值预估时,environment model 和agent做交互,交互过程中的信息作为context提供给agent来帮助其决策。
3.增加Q值预估的质量:在进行Q值预估时候,会通过environment model 来展开一定步数,然后结合model-free的Q值预估来给出一个更高准确的Q值预估。
其中3和2有点类似,但是2一般和planning结合,3的话则更多用于off-policy的RL算法中

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值