强化学习 马尔科夫决策过程(MDP)

1. 强化学习引入MDP的原因

强化学习的环境的状态转化模型,它可以表示为一个概率模型,即在状态s下采取动作a,转到下一个状态s′的概率,表示为\large p_{s{​{s}^{'}}}^{a}

如果按照真实的环境转化过程看,转化到下一个状态s′的概率既与上一个状态s有关,还与上上个状态,以及上上上个状态有关。这一会导致我们的环境转化模型非常复杂,复杂到难以建模。因此我们需要对强化学习的环境转化模型进行简化。简化的方法就是假设状态转化的马尔科夫性,也就是假设转化到下一个状态s′的概率仅与上一个状态s有关,与之前的状态无关。用公式表示就是:

 除了对于环境的状态转化模型这个因素做马尔科夫假设外,我们还对强化学习第四个要素个体的策略(policy)π也做了马尔科夫假设。即在状态s时采取动作a的概率仅与当前状态s有关,与其他的要素无关。用公式表示就是

对于第五个要素,价值函数{​{v}_{\pi }}(s)也是一样, {​{v}_{\pi }}(s)现在仅仅依赖于当前状态了,那么现在价值函数{​{v}_{\pi }}(s)表示为: 

其中,{​{G}_{t}}代表收获(return), 是一个MDP中从某一个状态{​{S}_{t}}开始采样直到终止状态时所有奖励的有衰减的之和。

 2. MDP的价值函数与贝尔曼方程

 对于MDP,我们在第一节里已经讲到了它的价值函数{​{v}_{\pi }}(s)的表达式。但是这个表达式没有考虑到所采用的动作a带来的价值影响,因此我们除了{​{v}_{\pi }}(s)这个状态价值函数外,还有一个动作价值函数{​{q}_{\pi }}(s,a),即

 根据价值函数的表达式,我们可以推导出价值函数基于状态的递推关系,比如对于状态价值函数{​{v}_{\pi }}(s),可以发现:

 也就是说,在t时刻的状态{​{S}_{t}}t+1时刻的状态{​{S}_{t+1}}是满足递推关系的,即:

这个递推式子我们一般将它叫做贝尔曼方程。这个式子告诉我们,一个状态的价值由该状态的奖励以及后续状态价值按一定的衰减比例联合组成。

同样的方法,我们可以得到动作价值函数{​{q}_{\pi }}(s,a)的贝尔曼方程: 

3. 状态价值函数与动作价值函数的递推关系 

 根据动作价值函数{​{q}_{\pi }}(s,a)和状态价值函数{​{v}_{\pi }}(s)的定义,我们很容易得到他们之间的转化关系公式:

 也就是说,状态价值函数是所有动作价值函数基于策略π的期望。通俗说就是某状态下所有状态动作价值乘以该动作出现的概率,最后求和,就得到了对应的状态价值。

反过来,利用上贝尔曼方程,我们也很容易从状态价值函数{​{v}_{\pi }}(s)表示动作价值函数{​{q}_{\pi }}(s,a),即:

通俗说就是状态动作价值有两部分相加组成,第一部分是即时奖励,第二部分是环境所有可能出现的下一个状态的概率乘以该下一状态的状态价值,最后求和,并加上衰减。

这两个转化过程也可以从下图中直观的看出: 

  把上面两个式子互相结合起来,我们可以得到:

4. 最优价值函数 

解决强化学习问题意味着要寻找一个最优的策略让个体在与环境交互过程中获得始终比其它策略都要多的收获,这个最优策略我们可以用 {​{\pi }^{*}}表示。一旦找到这个最优策略{​{\pi }^{*}},那么我们就解决了这个强化学习问题。一般来说,比较难去找到一个最优策略,但是可以通过比较若干不同策略的优劣来确定一个较好的策略,也就是局部最优解。

 如何比较策略的优劣呢?一般是通过对应的价值函数来比较的,也就是说,寻找较优策略可以通过寻找较优的价值函数来完成。可以定义最优状态价值函数是所有策略下产生的众多状态价值函数中的最大者,即:

 同理也可以定义最优动作价值函数是所有策略下产生的众多动作状态价值函数中的最大者,即:

 对于最优的策略,基于动作价值函数我们可以定义为:

 只要我们找到了最大的状态价值函数或者动作价值函数,那么对应的策略{​{\pi }^{*}}就是我们强化学习问题的解。同时,利用状态价值函数和动作价值函数之间的关系,我们也可以得到:

反过来的最优价值函数关系也很容易得到:

利用上面的两个式子也可以得到和第三节末尾类似的式子:

5. MDP实例 

上面的公式有点多,需要一些时间慢慢消化,这里给出一个UCL讲义上实际的例子,首先看看具体我们如何利用给定策略来计算价值函数。

例子是一个学生学习考试的MDP。里面左下那个圆圈位置是起点,方框那个位置是终点。上面的动作有study, pub, facebook, quit, sleep,每个状态动作对应的即时奖励R已经标出来了。我们的目标是找到最优的动作价值函数或者状态价值函数,进而找出最优的策略。

 为了方便,我们假设衰减因子γ=1,\pi (s,a)=0.5。

对于终点方框位置,由于其没有下一个状态,也没有当前状态的动作,因此其状态价值函数为0。对于其余四个状态,我们依次定义其价值为v1,v2,v3,v4,分别对应左上,左下,中下,右下位置的圆圈。

我们基于

计算所有的状态价值函数。可以列出一个方程组。 

上面我们固定了策略\pi (s,a),虽然求出了每个状态的状态价值函数,但是却并不一定是最优价值函数。那么如何求出最优价值函数呢?这里由于状态机简单,求出最优的状态价值函数{​{v}_{*}}(s)或者动作价值函数{​{q}_{*}}(s,a)比较容易。

我们这次以动作价值函数{​{q}_{*}}(s,a)来为例求解。首先终点方框处的好求。

接着我们就可利用

列方程组求出所有的{​{q}_{*}}(s,a)。有了所有的{​{q}_{*}}(s,a)利用{​{v}_{*}}(s)={​{\max }_{a}}{​{q}_{*}}(s,a)就可以求出所有的{​{v}_{*}}(s)。最终求出的所有{​{v}_{*}}(s){​{q}_{*}}(s,a)如下图:

从而我们的最优决策路径是走6->6->8->10->结束。  

6. MDP小结

MDP是强化学习入门的关键一步,如果这部分研究的比较清楚,后面的学习就会容易很多。因此值得多些时间在这里。虽然MDP可以直接用方程组来直接求解简单的问题,但是更复杂的问题却没有办法求解,因此我们还需要寻找其他有效的求解强化学习的方法。

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值