强化学习7——基于环境模型的RL方法

观周博雷老师课程有感

何为模型

  1. 状态转移概率:
    在这里插入图片描述
  2. 状态价值奖励:
    在这里插入图片描述
    我们通常假设状态转移和价值之间是独立的
    在这里插入图片描述

如何学到模型

通过环境交互,behavior policy采样一系列状态转移{S1,A1,R2,…,ST},使用监督的办法学习状态转移和价值函数。
在这里插入图片描述

模型的种类

Table Lookup Model
Linear Expectation Model
Linear Gaussian Model
Gaussian Process Model
Deep Belief Network Model …

Table lookup Model

就是数数,是说采样了若干条轨迹,先计算有多少个(s,a)状态对,然后再分别计算这些状态对中转移到某个状态s’的个数和得到的奖励总和,在用这些个数和奖励总和除以状态对数得到概率转移模型和奖励模型。
在这里插入图片描述
在这里插入图片描述

寻找最优策略算法

   在基于环境的RL中,我们把采样来源分为Real experience和Simulated experience,Real experience来源于真实模型即环境,Simulated experience来源于我们学习的模型。

value-base Dyna算法

  Dyna算法是从环境学习到一个模型,然后在真实模型和学习到的模型中学习价值函数。

policy-base 算法

  与控制论紧密相关,例如下面这个算法:

在这里插入图片描述
这里第二步是通过强监督训练来找到模型f(s,a),然后第三步用LQR可以求解最优的轨迹。

改进1:
执行第三步(算法1中)得到动作,得到{s,a,s’}加入集合D中继续优化模型,一直如此形成一个循环。

为了克服漂移,偏离最优轨迹。
在这里插入图片描述

改进2:

第三步得到动作(算法1中)后,我们只执行一步,得到的状态价值对加入集合D中,然后再重复第三步(算法1中),还是执行第一步,并加入集合D,依次循环。

改进1中在优化模型之前就执行第三步的操作,这就导致一开始就离我们的最优轨迹非常远。
在这里插入图片描述
最后得到学习模型和策略相结合的算法:

在这里插入图片描述

环境模型

大型神经网络,线性高斯动态函数。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值