【RL】策略迭代法的DP, MC和TD三种实现

本文介绍了强化学习中策略迭代法的原理与实现,包括q函数和v函数的转换、Bellman方程及其应用。重点讨论了策略更新值函数的Epsilon贪心法和Boltzman方法,以及动态规划、蒙特卡洛和时序差分三种值函数更新策略的理论与实践。
摘要由CSDN通过智能技术生成

博主的github链接,欢迎大家来访问~:https://github.com/Sh-Zh-7

强化学习经典算法实现地址:https://github.com/Sh-Zh-7/reinforce-learning-impl

在第一篇博文的时候,我们已经把强化学习的目标给介绍了,基本上就是围绕两个价值函数和策略

但是求解这个问题并没有那么简单,一个显然的困难就是我们在改变策略的时候,价值函数也会发生变化,如何处理这个问题就是我们今天算法的核心。

0. 关于这两个价值函数

为了更深入地了解这个问题,我们应该更深入地思考这两个价值函数,下面我直接给出他们的性质:

(1)q函数和v函数互转:

  1.  q转v:v_{\pi}(s_t)=\sum_{a_t}\pi(a_t|s_t)q_{\pi}(s_t,a_t)
  2. v转q:q_{\pi}(s_t,a_t)=\sum_{s_{t+1}}p(s_{t+1}|s_t,a_t)[r_{a_t}^{s_{t+1}} + \gamma * v_{\pi}(s_{t+1})]

有了这个性质,我们知道v就可以求q了。

(2) Bellman方程:

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值