马尔可夫决策过程 (2)

本章接上文,所以标题直接从4.4开始。

4.4 马尔可夫决策过程(MDP)

4.2和4.3所讲的马尔可夫过程和马尔科夫奖励过程都是自发改变的随机过程,如果有一个来自外界的“刺激”来共同改变这个随机过程,就有了马尔可夫决策过程(Markov decision process,MDP).我们将这个来自外界的刺激称为智能体(agent)的动作,在马尔可夫奖励过程(MRP)的基础上加入动作,就得到了马尔可夫决策过程(MDP)。MDP由元组<S,A,P,r,\gamma>构成,其中:

S是状态集合

A是动作的集合

\gamma是折扣因子

r(s,a)是奖励函数,此时奖励可以同时取决于状态s和动作a

P(s'|s,a)是状态转移函数,表示在状态s执行动作a之后到达概率s'的概率。

MDP跟MRP其实很相似,就差了一个主观因素"动作a"。在MDP中,通常有一个智能体(我们叫Agent)来执行动作。举个例子来讲,一艘小船在海上漂泊的过程就是一个MRP,若借运气漂流到一个目的地,则能获得很大奖励;如果有个水手控制船那就能前往目的地从而获取比较大的奖励。MDP是一个智能体与环境不断交互的过程。整体流程大概如下图所示:

这是一个循环的过程:智能体(Agent)根据当前的状态S_t选择动作A_t;对于状态状态S_t和动作A_t,MDP根据奖励函数和状态转移函数得到S_{t+1}R_t并反馈给智能体。智能体的目标是最大化得到的累计奖励。智能体根据当前状态从动作的集合A选择一个动作的函数,被称为策略


4.4.1 策略

智能体的策略通常用字母\pi,\pi(a|s) = P(A_t = a|S_t = s)表示在输入状态为s的情况下采取动作a的概率是多大。策略又分为确定性策略随机性策略确定性策略指的是其在每个状态时只输出一个确定性的动作,即只有该动作的概率为1,其他动作的概率为0.随机型策略指的是他在某个状态时输出的是关于动作的概率分布,然后根据分布进行采样得到一个动作。我们在MRP中提到了价值函数:一个状态的期望回报(即从这个状态出发的未来累计奖励的期望)被称为这个状态的价值,所有状态的价值就组成了价值函数。

那么在MDP也可以定义类似的价值函数,此时的价值函数跟策略是有关的。不同的策略在同一个状态下的价值很可能也是不一样的。这是因为不同策略采取不同的动作,之后会遇到不同的状态,获得不同的奖励,所以他们的累计奖励的期望时不同的,即状态价值不同。

4.4.2 状态价值函数

V^\pi{s}表示在MDP中基于策略\pi的状态价值函数,定义为从状态s出发遵循策略\pi能获得的期望汇报,数学表达式为:

V^\pi(s) =E_\pi[G_t|S_t = s]

4.4.3 动作价值函数

与MRP不同,MDP多了一个“动作a”,所以额外定义了一个动作价值函数。用Q^\pi(s,a)表示在MDP遵循策略\pi时,对当前状态s执行动作a得到的期望回报。

Q^\pi(s,a) = E[G_t|S_t=s, A_t = a]

状态价值函数和动作价值函数之间是存在关系的,在使用策略\pi中,状态s的价值等于在该状态下基于策略\pi采取所有动作的概率再与对应的价值相乘再求和的结果:

V^\pi(s) = \sum_{a\in A}\pi(a|s)Q^\pi(s,a)

使用策略\pi时,状态s下采取动作a的价值等于即时奖励加上经过衰减后的所有可能的下一个状态的状态转移概率与相应的价值的乘积。

Q^\pi(s,a) = r(s,a) + \gamma \sum_{s' \in S}P(s'|s,a)V^\pi(s')

4.4.4 贝尔曼期望方程

在贝尔曼方程中加上“期望”二字是为了与接下来的贝尔曼最优方程进行区分。我们通过简单推导就可以分别得到两个价值函数的贝尔曼期望方程:

V^\pi(s) = E_\pi[R_t + \gamma V^\pi (S_{t+1})| S_t = s]

                                                         =\sum_{a \in A} \pi(a|s)(r(s,a) + \gamma \sum_{s' \in S} p(s'|s,a) V^\pi(s'))

Q^\pi(s,a) = E_\pi [R_t + \gamma Q^\pi(S_{t+1}, A_{t+1} | S_t = s, A_t = a)]\\

                                               = r(s,a) + \gamma \sum_{s' \in S}p(s'|s,a) \sum_{a' \in A} \pi(a'|s') Q^\pi(s',a')

下图是一个马尔可夫决策过程的简单例子,其中每个深色圆圈代表一个状态,一共有从s_1s_5这 5 个状态。黑色实线箭头代表可以采取的动作,浅色小圆圈代表动作,需要注意,并非在每个状态都能采取所有动作,例如在状态s_1,智能体只能采取“保持”s_1和“前往”s_2这两个动作,无法采取其他动作。

每个浅色小圆圈旁的数字代表在某个状态下采取某个动作能获得的奖励。虚线箭头代表采取动作后可能转移到的状态,箭头边上的数字代表转移概率如果没有数字则表示转移概率为 1。例如,在s_2下, 如果采取动作“前往s_3”,就能得到奖励-2,并且转移到s_3;在s_4下,如果采取“概率前往”,就能得到奖励 1,并且会分别以概率 0.2, 0.4, 0.4 转移到s_2,s_3s_4

接下来我们编写代码来表示上图 的马尔可夫决策过程,并定义两个策略。第一个策略是一个完全随机策略,即在每个状态下,智能体会以同样的概率选取它可能采取的动作。例如,在s_1下,智能体会以 0.5 和 0.5 的概率选取动作“保持s_1”和“前往s_2”。第二个策略是一个提前设定的一个策略。

S = ["s1", "s2", "s3", "s4", "s5"]  # 状态集合
A = ["保持s1", "前往s1", "前往s2", "前往s3", "前往s4", "前往s5", "概率前往"]  # 动作集合
# 状态转移函数
P = {
    "s1-保持s1-s1": 1.0,
    "s1-前往s2-s2": 1.0,
    "s2-前往s1-s1": 1.0,
    "s2-前往s3-s3": 1.0,
    "s3-前往s4-s4": 1.0,
    "s3-前往s5-s5": 1.0,
    "s4-前往s5-s5": 1.0,
    "s4-概率前往-s2": 0.2,
    "s4-概率前往-s3": 0.4,
    "s4-概率前往-s4": 0.4,
}
# 奖励函数
R = {
    "s1-保持s1": -1,
    "s1-前往s2": 0,
    "s2-前往s1": -1,
    "s2-前往s3": -2,
    "s3-前往s4": -2,
    "s3-前往s5": 0,
    "s4-前往s5": 10,
    "s4-概率前往": 1,
}
gamma = 0.5  # 折扣因子
MDP = (S, A, P, R, gamma)

# 策略1,随机策略
Pi_1 = {
    "s1-保持s1": 0.5,
    "s1-前往s2": 0.5,
    "s2-前往s1": 0.5,
    "s2-前往s3": 0.5,
    "s3-前往s4": 0.5,
    "s3-前往s5": 0.5,
    "s4-前往s5": 0.5,
    "s4-概率前往": 0.5,
}
# 策略2
Pi_2 = {
    "s1-保持s1": 0.6,
    "s1-前往s2": 0.4,
    "s2-前往s1": 0.3,
    "s2-前往s3": 0.7,
    "s3-前往s4": 0.5,
    "s3-前往s5": 0.5,
    "s4-前往s5": 0.1,
    "s4-概率前往": 0.9,
}


# 把输入的两个字符串通过“-”连接,便于使用上述定义的P、R变量
def join(str1, str2):
    return str1 + '-' + str2

接下来我们准备计算该MDP下,一个策略\pi的状态价值函数。我们现在有的工具是MRP的解析解方法,于是,我们想到,若给定一个MDP和一个策略\pi,咱就是说,能不能将MDP换成MRP?这肯定的,可以。可以将策略的动作进行边缘化。(这专业名词真讨厌),就可以得到没有动作的MRP了,意思就是,对于某个状态,根据策略对所有可能的动作的概率进行加权,得到的奖励和就可以认为是一个在MRP在该状态下的奖励,即:

r'(s) = \sum_{a \in A} \pi(a|s)r(s|a)

同理,我们计算采取动作的概率使s转移到s'的概率的乘积,再将这些乘积相加,其和就是一个MRP的状态从s转移至s'的概率。

P'(s'|s) = \sum_{a \in A} \pi(a|s) P(s'|s,a)

于是,我们构建得到了一个MRP:<S,P',r',\gamma'>.根据价值函数的定义可以看出,转化前的MDP的状态价值函数是一样的,于是可以用MRP中甲酸价值函数的解析解来计算MDP中该策略的状态价值函数。

我们接下来就编写代码来实现该方法,计算用随机策略(也就是代码中的Pi_1)时的状态价值函数。为了简单起见,我们直接给出转化后的 MRP 的状态转移矩阵和奖励函数。

    def compute(P, rewards, gamma, states_num):
        ''' 利用贝尔曼方程的矩阵形式计算解析解,states_num是MRP的状态数 '''
        rewards = np.array(rewards).reshape((-1, 1))  # 将rewards写成列向量形式
        value = np.dot(np.linalg.inv(np.eye(states_num, states_num) - gamma * P),
                       rewards)
        return value
    gamma = 0.5
    # 转化后的MRP的状态转移矩阵
    P_from_mdp_to_mrp = [
        [0.5, 0.5, 0.0, 0.0, 0.0],
        [0.5, 0.0, 0.5, 0.0, 0.0],
        [0.0, 0.0, 0.0, 0.5, 0.5],
        [0.0, 0.1, 0.2, 0.2, 0.5],
        [0.0, 0.0, 0.0, 0.0, 1.0],
    ]
    P_from_mdp_to_mrp = np.array(P_from_mdp_to_mrp)
    R_from_mdp_to_mrp = [-0.5, -1.5, -1.0, 5.5, 0]



    V = compute(P_from_mdp_to_mrp, R_from_mdp_to_mrp, gamma, 5)
    print("MDP中每个状态价值分别为\n", V)

结果:

这个 MRP 解析解的方法在状态动作集合比较大的时候不是很适用,那有没有其他的方法呢?下一章将介绍用动态规划算法来计算得到价值函数。4.5 节将介绍用蒙特卡洛方法来近似估计这个价值函数,用蒙特卡洛方法的好处在于我们不需要知道 MDP 的状态转移函数和奖励函数,它可以得到一个近似值,并且采样数越多越准确。

4.5 蒙特卡洛方法

蒙特卡洛方法(Monte-Carlo methods)也被称为统计模拟方法,是一种基于概率统计的数值计算方法。运用蒙特卡洛方法时,我们通常使用重复随机抽样,然后运用概率统计方法来从抽样结果中归纳出我们想求的目标的数值估计。一个简单的例子是用蒙特卡洛方法来计算圆的面积。例如,如下图所示的正方形内部随机产生若干个点,细数落在圆中点的个数,圆的面积与正方形面积之比就等于圆中点的个数与正方形中点的个数之比。如果我们随机产生的点的个数越多,计算得到圆的面积就越接近于真实的圆的面积。

\frac{Area_{circle}}{Area_{square}} = \frac{point_{in circle}}{point_{in squre}}

我们现在介绍如何用蒙特卡洛方法来估计一个策略在一个马尔可夫决策过程中的状态价值函数。原来的某个状态的价值是它的期望回报,那么一个很直观的想法就是用策略在MDP上采样很多条序列(这个序列就是从某状态开始一直到结束状态),计算从这个状态出发的回报再求其期望就可以了。公式如下:

V^\pi(s) = E_{\pi}[G_t|S_t = s] \approx \frac{1}{N} \sum^N_{i=1}G^{(i)}_t

在一条序列中,可能没有出现过这个状态,可能只出现过一次这个状态,也可能出现过很多次这个状态。我们介绍的蒙特卡洛价值估计方法会在该状态每一次出现时计算它的回报。还有一种选择是一条序列只计算一次回报,也就是这条序列第一次出现该状态时计算后面的累积奖励,而后面再次出现该状态时,该状态就被忽略了。假设我们现在用策略\pi从状态s开始采样序列,据此来计算状态价值。我们为每一个状态维护一个计数器和总回报,计算状态价值的具体过程如下所示。

(1)使用策略\pi采样若干条序列:

(2) 对每一条序列中的每一时间步t的状态s进行以下操作:

  • 更新状态s的计数器 N(s) \leftarrow N(s) + 1
  • 更新状态s的总回报M(s) \leftarrow M(s)+G_t

(3)每一个状态的价值被估计为回报的平均值V(s) \leftarrow + G_t.

根据大数定律,当N(s) \rightarrow \infty,有V(s) \rightarrow V^\pi(s).计算回报的期望时,除了可以把所有的回报加起来除以次数,还有一种增量更新的方法。对于每个状态s和对应回报G,进行如下计算:

  • N(s) \leftarrow N+1
  • V(s) \rightarrow V(s) + \frac{1}{N(s)}(G - V(S))

接下来我们用代码定义一个采样函数。采样函数需要遵守状态转移矩阵和相应的策略,每次将(s,a,r,s_next)元组放入序列中,直到到达终止序列。然后我们通过该函数,用随机策略在下面图的 MDP 中随机采样几条序列。

def sample(MDP, Pi, timestep_max, number):
    ''' 采样函数,策略Pi,限制最长时间步timestep_max,总共采样序列数number '''
    S, A, P, R, gamma = MDP
    episodes = []
    for _ in range(number):
        episode = []
        timestep = 0
        s = S[np.random.randint(4)]  # 随机选择一个除s5以外的状态s作为起点
        # 当前状态为终止状态或者时间步太长时,一次采样结束
        while s != "s5" and timestep <= timestep_max:
            timestep += 1
            rand, temp = np.random.rand(), 0
            # 在状态s下根据策略选择动作
            for a_opt in A:
                temp += Pi.get(join(s, a_opt), 0)
                if temp > rand:
                    a = a_opt
                    r = R.get(join(s, a), 0)
                    break
            rand, temp = np.random.rand(), 0
            # 根据状态转移概率得到下一个状态s_next
            for s_opt in S:
                temp += P.get(join(join(s, a), s_opt), 0)
                if temp > rand:
                    s_next = s_opt
                    break
            episode.append((s, a, r, s_next))  # 把(s,a,r,s_next)元组放入序列中
            s = s_next  # s_next变成当前状态,开始接下来的循环
        episodes.append(episode)
    return episodes


# 采样5次,每个序列最长不超过20步
episodes = sample(MDP, Pi_1, 20, 5)
print('第一条序列\n', episodes[0])
print('第二条序列\n', episodes[1])
print('第五条序列\n', episodes[4])

结果:

# 对所有采样序列计算所有状态的价值
def MC(episodes, V, N, gamma):
    for episode in episodes:
        G = 0
        for i in range(len(episode) - 1, -1, -1):  #一个序列从后往前计算
            (s, a, r, s_next) = episode[i]
            G = r + gamma * G
            N[s] = N[s] + 1
            V[s] = V[s] + (G - V[s]) / N[s]


timestep_max = 20
# 采样1000次,可以自行修改
episodes = sample(MDP, Pi_1, timestep_max, 1000)
gamma = 0.5
V = {"s1": 0, "s2": 0, "s3": 0, "s4": 0, "s5": 0}
N = {"s1": 0, "s2": 0, "s3": 0, "s4": 0, "s5": 0}
MC(episodes, V, N, gamma)
print("使用蒙特卡洛方法计算MDP的状态价值为\n", V)

结果:

可以看到用蒙特卡洛方法估计得到的状态价值和我们用 MRP 解析解得到的状态价值是很接近的。这得益于我们采样了比较多的序列,感兴趣的读者可以尝试修改采样次数,然后观察蒙特卡洛方法的结果。

4.6最优策略

强化学习的目标通常是找到一个策略,使得智能体从初始状态出发能获得最多的期望回报。我们首先定义策略之间的偏序关系:当且仅当对于任意的状态s都有V^\pi(s) \geq V^{\pi '}(s),记\pi > \pi'。于是在有限状态和动作集合的 MDP 中,至少存在一个策略比其他所有策略都好或者至少存在一个策略不差于其他所有策略,这个策略就是最优策略(optimal policy)。最优策略可能有很多个,我们都将其表示为\pi^*(s)

最优策略都有相同的状态价值函数,我们称之为最优状态价值函数,表示为:

V*(s)= max_\pi V^\pi(s), s \in S

同理,我们定义最优动作价值函数:

Q^*(s, a) = \max_{\pi} Q^\pi(s, a) \\ s \in S a \in A

为了使Q^\pi(s, a)最大,我们需要在当前的状态动作对(s,a)之后都执行最优策略。于是我们得到了最优状态价值函数和最优动作价值函数之间的关系:

Q^*(s,a) = r(s,a) + \gamma \sum_{s' \in \mathcal{S}} P(s'|s,a) V^*(s')

这与在普通策略下的状态价值函数和动作价值函数之间的关系是一样的。另一方面,最优状态价值是选择此时使最优动作价值最大的那一个动作时的状态价值:

V^*(s) = \max_{a \in \mathcal{A}} Q^*(s, a)

4.7.1 贝尔曼最优方程

根据V^*(s)Q^*(s,a)的关系,我们可以得到贝尔曼最优方程(Bellman optimality equation):

V^*(s) = \max_{a \in A} \left\{ r(s, a) + \gamma \sum_{s' \in S} p(s'|s, a)V^*(s') \right\}

Q^*(s, a) = r(s, a) + \gamma \sum_{s' \in S} p(s'|s, a) \max_{a' \in A} Q^*(s', a')

4.8 总结

这两节(1章)从零开始介绍了马尔可夫决策过程的基础概念知识,并讲解了如何通过求解贝尔曼方程得到状态价值的解析解以及如何用蒙特卡洛方法估计各个状态的价值。马尔可夫决策过程是强化学习中的基础概念,强化学习中的环境就是一个马尔可夫决策过程。我们接下来将要介绍的强化学习算法通常都是在求解马尔可夫决策过程中的最优策略。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值