策略梯度方法介绍——策略梯度定理推导过程

策略梯度方法介绍——策略梯度定理推导过程

目录

上一节介绍了Policy-Based强化学习方法的优势,并介绍了影响目标函数梯度 ∇ J ( θ ) \nabla\mathcal J(\theta) J(θ)的核心要素——状态分布本节将使用状态分布策略梯度定理进行表示

回顾:目标函数与状态分布

上一节介绍到:

  • 通常将目标函数 J ( θ ) \mathcal J(\theta) J(θ)定义为 情节中初始状态回报的期望,即初始状态的状态价值函数
    J ( θ ) = E π ( a ∣ s ; θ ) [ G 0 ∣ S = s 0 ] ≜ V π ( a ∣ s ; θ ) ( s 0 ) \mathcal J(\theta) = \mathbb E_{\pi(a \mid s;\theta)}[G_0 \mid S = s_0] \triangleq V_{\pi(a \mid s;\theta)}(s_0) J(θ)=Eπ(as;θ)[G0S=s0]Vπ(as;θ)(s0)

  • 情节中策略函数 π ( a ∣ s ; θ ) \pi(a \mid s;\theta) π(as;θ)的变化会影响状态分布的变化,而状态分布的变化直接影响目标函数 J ( θ ) \mathcal J(\theta) J(θ)的变化。

    关于状态 s s s出现的平均次数表示如下:
    η ( s ) = h ( s ) + ∑ s ˉ η ( s ˉ ) ∑ a π ( a ∣ s ˉ ) P ( s ∣ s ˉ , a ) = ∑ k = 0 T − 1 P r { s 0 → s , k , π } \begin{aligned} \eta(s) & = h(s) + \sum_{\bar s}\eta(\bar s)\sum_{a}\pi(a \mid \bar s)P(s \mid \bar s,a) \\ & = \sum_{k=0}^{T-1}P_r\{s_0 \to s,k,\pi\} \end{aligned} η(s)=h(s)+sˉη(sˉ)aπ(asˉ)P(ssˉ,a)=k=0T1Pr{s0s,k,π}
    其中, P r { s 0 → s , k , π } P_r\{s_0 \to s,k,\pi\} Pr{s0s,k,π}表示初始状态 s 0 s_0 s0,在策略函数 π \pi π的条件下,经过 k k k状态转移,最终达到状态 s s s的概率。即 存在 P r { s 0 → s , k , π } P_r\{s_0 \to s,k,\pi\} Pr{s0s,k,π}的概率,初始状态 s 0 s_0 s0经过 k k k次状态转移后的状态必然是状态 s s s(必出现一次状态 s s s)
    因而,状态 s s s在情节中出现的平均次数 η ( s ) \eta(s) η(s)从初始时刻 t = 0 t = 0 t=0开始,到情节结束的前一个时刻 T − 1 T-1 T1之间所有时刻“出现一次状态 s s s”的平均次数之和

  • 状态 s s s出现概率表示如下:
    μ ( s ) = η ( s ) ∑ s ′ η ( s ′ ) \mu(s) = \frac{\eta(s)}{\sum_{s'} \eta(s')} μ(s)=sη(s)η(s)

策略梯度定理

策略梯度定理本质就是求解 目标函数的梯度 ∇ J ( θ ) \nabla \mathcal J(\theta) J(θ) ∇ J ( θ ) \nabla \mathcal J(\theta) J(θ)自身是一个向量,它包含两个要素:

  • 梯度数值
  • 梯度方向

相比于梯度数值,我们更关心的是梯度方向——梯度方向会 引导目标函数 J ( θ ) \mathcal J(\theta) J(θ)向最优方向收敛,而梯度数值在迭代过程中会与学习率 α \alpha α相乘,它只参与决定 J ( θ ) \mathcal J(\theta) J(θ)收敛的 步长(step)
在后续推导过程中会用到该思想。

策略梯度定理求解过程

根据目标函数的描述,将 ∇ J ( θ ) \nabla \mathcal J(\theta) J(θ)表示如下:
为了使推导过程更具有‘普遍性’ -> 将s_0用s表达;
∇ J ( θ ) = ∇ V π ( s ) \nabla \mathcal J(\theta) = \nabla V_\pi(s) J(θ)=Vπ(s)
V π ( s ) V_\pi(s) Vπ(s)使用贝尔曼期望方程进行展开:
∇ V π ( s ) = ∇ ∑ a ∈ A ( s ) π ( a ∣ s ) q π ( s , a ) \nabla V_\pi(s) = \nabla \sum_{a \in \mathcal A(s)}\pi(a \mid s)q_\pi(s,a) Vπ(s)=aA(s)π(as)qπ(s,a)
连加符号 ∑ a ∈ A ( s ) \sum_{a \in \mathcal A(s)} aA(s)梯度符号交换位置——即对连加操作中的每一项求解梯度,并对 π ( a ∣ s ) q π ( s , a ) \pi(a \mid s)q_\pi(s,a) π(as)qπ(s,a)求解梯度;
可以看成‘乘法求导’。
∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) + ∑ a ∈ A ( s ) π ( a ∣ s ) ∇ q π ( s , a ) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) + \sum_{a \in \mathcal A(s)}\pi(a \mid s)\nabla q_\pi(s,a) aA(s)π(as)qπ(s,a)+aA(s)π(as)qπ(s,a)

此时观察第二项 ∑ a ∈ A ( s ) π ( a ∣ s ) ∇ q π ( s , a ) \sum_{a \in \mathcal A(s)}\pi(a \mid s)\nabla q_\pi(s,a) aA(s)π(as)qπ(s,a) q π ( s , a ) q_\pi(s,a) qπ(s,a)可以继续展开,即状态 s s s条件下选择并执行动作 a a a,经过状态转移得到下一时刻状态 s ′ s' s
∇ q π ( s , a ) = ∇ ∑ s ′ , r P ( s ′ , r ∣ s , a ) [ r + γ V π ( s ′ ) ] = ∇ ∑ s ′ , r P ( s ′ , r ∣ s , a ) ⋅ r + ∇ ∑ s ′ , r γ P ( s ′ , r ∣ s , a ) V π ( s ′ ) \begin{aligned} \nabla q_\pi(s,a) & = \nabla \sum_{s',r}P(s',r \mid s,a)[r + \gamma V_\pi(s')] \\ & = \nabla \sum_{s',r}P(s',r \mid s,a) \cdot r + \nabla \sum_{s',r} \gamma P(s',r \mid s,a) V_\pi(s') \end{aligned} qπ(s,a)=s,rP(s,rs,a)[r+γVπ(s)]=s,rP(s,rs,a)r+s,rγP(s,rs,a)Vπ(s)
我们要对 θ \theta θ求解梯度,只有策略函数 π ( a ∣ s ; θ ) \pi(a \mid s;\theta) π(as;θ)包含策略函数 V π , q π V_\pi,q_\pi Vπ,qπ中含有 θ \theta θ。因此:动态特性函数 P ( s ′ , r ∣ s , a ) P(s',r \mid s,a) P(s,rs,a),衰减系数 γ \gamma γ均视作常数
∇ q π ( s , a ) \nabla q_\pi(s,a) qπ(s,a)整理结果如下:
∇ q π ( s , a ) = γ ∑ s ′ , r P ( s ′ , r ∣ s , a ) ∇ V π ( s ′ ) \nabla q_\pi(s,a) = \gamma \sum_{s',r}P(s',r \mid s,a) \nabla V_\pi(s') qπ(s,a)=γs,rP(s,rs,a)Vπ(s)
该结果可以继续简化——对 r r r求解边缘概率分布:此时有:
∑ r P ( r ∣ s , a ) = 1 \sum_{r} P(r \mid s,a) = 1 rP(rs,a)=1
因此 ∇ q π ( s , a ) \nabla q_\pi(s,a) qπ(s,a)可以继续化简如下:
∇ q π ( s , a ) = γ ∑ r P ( r ∣ s , a ) × ∑ s ′ P ( s ′ ∣ s , a ) ∇ V π ( s ′ ) = γ × 1 × ∑ s ′ P ( s ′ ∣ s , a ) ∇ V π ( s ′ ) = γ ∑ s ′ P ( s ′ ∣ s , a ) ∇ V π ( s ′ ) \begin{aligned} \nabla q_\pi(s,a) & = \gamma \sum_{r}P(r \mid s,a) \times \sum_{s'} P(s' \mid s,a) \nabla V_\pi(s') \\ & = \gamma \times 1 \times \sum_{s'} P(s' \mid s,a) \nabla V_\pi(s') \\ & = \gamma \sum_{s'} P(s' \mid s,a) \nabla V_\pi(s') \end{aligned} qπ(s,a)=γrP(rs,a)×sP(ss,a)Vπ(s)=γ×1×sP(ss,a)Vπ(s)=γsP(ss,a)Vπ(s)
∇ q π ( s , a ) \nabla q_\pi(s,a) qπ(s,a)至此无法继续向下化简,对 ∇ V π ( s ) \nabla V_\pi(s) Vπ(s)进行整理:
∇ V π ( s ) = ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) + ∑ a ∈ A ( s ) π ( a ∣ s ) ∇ q π ( s , a ) = ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) + ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) ∇ V π ( s ′ ) \begin{aligned} \nabla V_\pi(s) & = \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) + \sum_{a \in \mathcal A(s)}\pi(a \mid s)\nabla q_\pi(s,a) \\ & = \sum_{a \in \mathcal A(s)}\nabla \pi(a \mid s)q_\pi(s,a) + \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) \nabla V_\pi(s') \end{aligned} Vπ(s)=aA(s)π(as)qπ(s,a)+aA(s)π(as)qπ(s,a)=aA(s)π(as)qπ(s,a)+aA(s)π(as)×γsP(ss,a)Vπ(s)

我们发现,上述式子是 关于 ∇ V π ( s ) \nabla V_\pi(s) Vπ(s) ∇ V π ( s ′ ) \nabla V_\pi(s') Vπ(s)的迭代式子,即 找到了 ∇ V π ( s ) \nabla V_\pi(s) Vπ(s) ∇ V π ( s ′ ) \nabla V_\pi(s') Vπ(s)的关联关系,为了确定这组关联关系,我们继续对 ∇ V π ( s ′ ) \nabla V_\pi(s') Vπ(s)向下展开:
设置场景状态 s ′ s' s条件下,通过策略函数 π ( a ′ ∣ s ′ ; θ ) \pi(a' \mid s';\theta) π(as;θ)选择动作 a ′ a' a,经过 状态转移 得到 s ′ s' s的下一时刻状态 s ′ ′ s'' s′′
s'状态价值函数求解梯度同s
∇ V π ( s ′ ) = ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) + ∑ a ′ ∈ A ( s ′ ) π ( a ′ ∣ s ′ ) × γ ∑ s ′ ′ P ( s ′ ′ ∣ s ′ , a ′ ) ∇ V π ( s ′ ′ ) \nabla V_\pi(s') = \sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') + \sum_{a' \in \mathcal A(s')}\pi(a' \mid s') \times \gamma \sum_{s''}P(s'' \mid s',a') \nabla V_\pi(s'') Vπ(s)=aA(s)π(as)qπ(s,a)+aA(s)π(as)×γs′′P(s′′s,a)Vπ(s′′)
∇ V π ( s ′ ) \nabla V_\pi(s') Vπ(s)带回 ∇ V π ( s ) \nabla V_\pi(s) Vπ(s),则有:
∇ V π ( s ) = ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) + ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) { ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) + ∑ a ′ ∈ A ( s ′ ) π ( a ′ ∣ s ′ ) × γ ∑ s ′ ′ P ( s ′ ′ ∣ s ′ , a ′ ) ∇ V π ( s ′ ′ ) } \nabla V_\pi(s) = \sum_{a \in \mathcal A(s)}\nabla \pi(a \mid s)q_\pi(s,a) + \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) \left\{ \sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') + \sum_{a' \in \mathcal A(s')} \pi(a' \mid s') \times \gamma \sum_{s''}P(s'' \mid s',a') \nabla V_\pi(s'') \right\} Vπ(s)=aA(s)π(as)qπ(s,a)+aA(s)π(as)×γsP(ss,a) aA(s)π(as)qπ(s,a)+aA(s)π(as)×γs′′P(s′′s,a)Vπ(s′′)

现在已经将状态 s s s状态转移了两次 s → s ′ → s ′ ′ s \to s' \to s'' sss′′,根据上面的展开结果,尝试寻找求解 ∇ V π ( s ) \nabla V_\pi(s) Vπ(s)的规律
将上述公式完全展开,并归纳成若干项的加和 形式:
大家可以自行尝试展开,最终得到下面结果的加和形式即可

  • 第一项
    ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) aA(s)π(as)qπ(s,a)
  • 第二项
    ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a)\sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') aA(s)π(as)×γsP(ss,a)aA(s)π(as)qπ(s,a)
  • 第三项
    ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) ∑ a ′ ∈ A ( s ′ ) π ( a ′ ∣ s ′ ) × γ ∑ s ′ ′ P ( s ′ ′ ∣ s ′ , a ′ ) ∇ V π ( s ′ ′ ) \sum_{a \in \mathcal A(s)}\pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) \sum_{a' \in \mathcal A(s')} \pi(a' \mid s') \times \gamma \sum_{s''}P(s'' \mid s',a') \nabla V_\pi(s'') aA(s)π(as)×γsP(ss,a)aA(s)π(as)×γs′′P(s′′s,a)Vπ(s′′)

首先,先观察第二项
∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a)\sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') aA(s)π(as)×γsP(ss,a)aA(s)π(as)qπ(s,a)
观察前半部分 ∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) aA(s)π(as)×γsP(ss,a),前半部分主要描述的是 状态 s s s转移至 s ′ s' s的转移概率。现在可能观察的不够明朗,我们将前半部分进行如下变换:

  • ∑ s ′ \sum_{s'} s提到前面:
    ∑ a ∈ A ( s ) ∑ s ′ γ × π ( a ∣ s ) P ( s ′ ∣ s , a ) \sum_{a \in \mathcal A(s)}\sum_{s'} \gamma \times \pi(a \mid s) P(s' \mid s,a) aA(s)sγ×π(as)P(ss,a)

  • 其中, π ( a ∣ s ) \pi(a \mid s) π(as)可看作 s s s状态下动作 a a a发生的条件概率 P ( s ′ ∣ s , a ) P(s' \mid s,a) P(ss,a)可看作 s s s状态下执行动作 a a a进行状态转移,转移状态为 s ′ s' s的条件概率

    根据动态规划求解强化学习任务——策略评估[解析解]提到的条件概率密度积分
    ∑ a ∈ A p ( c ∣ a , B ) p ( a ∣ B ) = ∑ a ∈ A p ( c , a ∣ B ) = p ( c ∣ B ) \sum_{a \in \mathcal A}p(c \mid a,\mathcal B)p(a \mid \mathcal B) = \sum_{a \in \mathcal A}p(c,a \mid \mathcal B) = p(c \mid \mathcal B) aAp(ca,B)p(aB)=aAp(c,aB)=p(cB)
    条件概率 π ( a ∣ s ) \pi(a \mid s) π(as)条件概率 P ( s ′ ∣ s , a ) P(s' \mid s,a) P(ss,a) 乘积结果的概率符号设为 P \mathcal P P, 可以将上述式子化简成:
    ∑ a ∈ A ( s ) ∑ s ′ γ × π ( a ∣ s ) P ( s ′ ∣ s , a ) = ∑ s ′ γ × P ( s ′ ∣ s ) \begin{aligned} \sum_{a \in \mathcal A(s)}\sum_{s'} \gamma \times \pi(a \mid s) P(s' \mid s,a) = \sum_{s'}\gamma \times\mathcal P(s' \mid s) \end{aligned} aA(s)sγ×π(as)P(ss,a)=sγ×P(ss)

  • 根据上式,可以将 P ( s ′ ∣ s ) \mathcal P(s' \mid s) P(ss)看作成 状态 s s s通过1次状态转移得到新状态 s ′ s' s的概率。这和我们对状态分布 P r { s 0 → s , k , π } P_r\{s_0 \to s,k,\pi\} Pr{s0s,k,π}的定义十分相似,我们可以改成:
    P ( s ′ ∣ s ) = P r { s → s ′ , 1 , π } \mathcal P(s' \mid s) = P_r\{s \to s',1,\pi\} P(ss)=Pr{ss,1,π}

因此,前半部分可以转化成:
∑ a ∈ A ( s ) π ( a ∣ s ) × γ ∑ s ′ P ( s ′ ∣ s , a ) = ∑ s ′ γ × P r { s → s ′ , 1 , π } \sum_{a \in \mathcal A(s)} \pi(a \mid s) \times \gamma \sum_{s'} P(s' \mid s,a) = \sum_{s'} \gamma \times P_r\{s \to s',1,\pi\} aA(s)π(as)×γsP(ss,a)=sγ×Pr{ss,1,π}

至此,改进后第二项表达如下
∑ s ′ γ × P r { s → s ′ , 1 , π } ∑ a ′ ∈ A ( s ′ ) ∇ π ( a ′ ∣ s ′ ) q π ( s ′ , a ′ ) \sum_{s'} \gamma \times P_r\{s \to s',1,\pi\}\sum_{a' \in \mathcal A(s')} \nabla \pi(a' \mid s')q_\pi(s',a') sγ×Pr{ss,1,π}aA(s)π(as)qπ(s,a)

继续观察这个改进后的第二项,虽然现在不清楚它表示的具体意义是什么——但是该式子中包含2个变量和1个常数量

  • 变量 → s , s ′ \to s,s' s,s;( a ′ a' a只能看成一个中间过程量,因为它最终是要被 ∑ a ′ ∈ A ( s ′ ) \sum_{a' \in \mathcal A(s')} aA(s)积分掉的量)
  • 常数量 → \to 转移次数:1

我们可以将其理解为:状态 s s s经过 1次状态转移 得到状态 s ′ s' s的量的描述
可以将其做成一个 通向式,其表述含义为:状态 s s s经过 k k k次状态转移得到状态 x x x的量的描述。并且 x ∈ x \in x转移后的状态集合 S \mathcal S S。对应式子表示如下:
∑ x ∈ S γ × P r { s → x , k , π } ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) \sum_{x \in \mathcal S} \gamma \times P_r\{s \to x,k,\pi\} \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) xSγ×Pr{sx,k,π}aA(x)π(ax)qπ(x,a)

重点:此时第二项的通式已经得到了,观察第一项是否满足该通式
必然是满足的
观察第一项式子:
∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) aA(s)π(as)qπ(s,a)
我们可以将其理解成:状态 s s s经过 0次状态转移 得到状态 s s s自身的量的描述
表述如下:

  • 状态 s s s状态转移0次 → \to 即没有进行状态转移,其结果是状态 s s s自身的概率 必然是1
  • 由于没有状态转移,转移后的状态集合 S \mathcal S S的选择只有 s s s一个。即:
    ∑ x ∈ S P r { s → x , k , π } = P r { s → s , 0 , π } ∣ x = s = 1 \sum_{x \in \mathcal S}P_r\{s \to x,k,\pi\} = P_r\{s \to s,0,\pi\}\mid_{x=s} = 1 xSPr{sx,k,π}=Pr{ss,0,π}x=s=1
  • 由于没有状态转移,自然没有奖励结果衰减,因此,衰减系数 γ = 1 \gamma = 1 γ=1

因此,第一项经过整理表示如下:
∑ x ∈ S γ × P r { s → x , k , π } ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) = 1 × P r { s → s , 0 , π } ∣ x = s ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) = 1 × 1 × ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) = ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) \begin{split} & \sum_{x \in \mathcal S} \gamma \times P_r\{s \to x,k,\pi\} \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) \\ & = 1 \times P_r\{s \to s,0,\pi\} \mid_{x =s}\sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) \\ & = 1 \times 1 \times \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) \\ & = \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) \end{split} xSγ×Pr{sx,k,π}aA(x)π(ax)qπ(x,a)=1×Pr{ss,0,π}x=saA(x)π(ax)qπ(x,a)=1×1×aA(x)π(ax)qπ(x,a)=aA(x)π(ax)qπ(x,a)

至此,第一项第二项全部满足上述通式。第三项通过观察,发现它仍然是一个迭代式,因为第三项中包含 ∇ V π ( s ′ ′ ) \nabla V_\pi(s'') Vπ(s′′),该项仍然可以继续展开,并一直展开下去。
示例:如果展开 N N N次,前 N − 1 N-1 N1项均能表述为上述通式结果

至此, ∇ V π ( s ) \nabla V_\pi(s) Vπ(s)表示如下:
注意:这里的‘无穷’符号并非表示迭代公式能够无限展开,即到情节结束时,后续展开项的结果均为0;
∇ V π ( s ) = ∑ x ∈ S ∑ k = 0 ∞ γ k × P r { s → x , k , π } ∑ a ∈ A ( x ) ∇ π ( a ∣ x ) q π ( x , a ) \nabla V_\pi(s) = \sum_{x \in \mathcal S} \sum_{k=0}^\infty \gamma^k \times P_r\{s \to x,k,\pi\} \sum_{a \in \mathcal A(x)} \nabla \pi(a \mid x)q_\pi(x,a) Vπ(s)=xSk=0γk×Pr{sx,k,π}aA(x)π(ax)qπ(x,a)

现在,将公式中所有的 s s s替换回初始状态 s 0 s_0 s0,将公式中所有的 x x x替换回 s → s \to s 最终还是要求解初始状态价值函数的梯度——定义就是这么定义的

∇ V π ( s 0 ) = ∑ s ∈ S ∑ k = 0 ∞ γ k × P r { s 0 → s , k , π } ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \nabla V_\pi(s_0) = \sum_{s \in \mathcal S} \sum_{k=0}^\infty \gamma^k \times P_r\{s_0 \to s,k,\pi\} \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) Vπ(s0)=sSk=0γk×Pr{s0s,k,π}aA(s)π(as)qπ(s,a)

状态分布 η ( s ) = ∑ k = 0 T − 1 P r { s 0 → s , k , π } \eta(s) = \sum_{k=0}^{T-1}P_r\{s_0 \to s,k,\pi\} η(s)=k=0T1Pr{s0s,k,π}带回上式:
∇ V π ( s 0 ) = ∑ s ∈ S ∑ k = 0 ∞ γ k × P r { s 0 → s , k , π } ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) = ∑ s ∈ S γ k × η ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \begin{aligned} \nabla V_\pi(s_0) & = \sum_{s \in \mathcal S} \sum_{k=0}^\infty \gamma^k \times P_r\{s_0 \to s,k,\pi\} \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) \\ & = \sum_{s \in \mathcal S} \gamma^k \times \eta(s) \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) \end{aligned} Vπ(s0)=sSk=0γk×Pr{s0s,k,π}aA(s)π(as)qπ(s,a)=sSγk×η(s)aA(s)π(as)qπ(s,a)
s s s出现概率 μ ( s ) \mu(s) μ(s)引入到公式中:
→ \to 乘以一个 ∑ s ′ η ( s ′ ) × 1 ∑ s ′ η ( s ′ ) \sum_{s'} \eta(s') \times \frac{1}{\sum_{s'} \eta(s')} sη(s)×sη(s)1
∇ J ( θ ) = ∇ V π ( s 0 ) = ∑ s ′ η ( s ′ ) ∑ s ∈ S γ k × η ( s ) ∑ s ′ η ( s ′ ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) = ∑ s ′ η ( s ′ ) ∑ s ∈ S γ k × μ ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \begin{aligned} \nabla \mathcal J(\theta) & = \nabla V_\pi(s_0) \\ & = \sum_{s'} \eta(s') \sum_{s \in \mathcal S} \gamma^k \times \frac{\eta(s)}{\sum_{s'} \eta(s')} \sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a)\\ & = \sum_{s'} \eta(s') \sum_{s \in \mathcal S} \gamma^k \times \mu(s)\sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) \end{aligned} J(θ)=Vπ(s0)=sη(s)sSγk×sη(s)η(s)aA(s)π(as)qπ(s,a)=sη(s)sSγk×μ(s)aA(s)π(as)qπ(s,a)

∑ s ′ η ( s ′ ) \sum_{s'} \eta(s') sη(s)归一化因子,是常数,它只是影响梯度的具体数值,根据本节开头介绍,我们更加关注梯度方向,因此:
γ \gamma γ在这里被 ∝ \propto (正比于符号)包含在内;
∇ J ( θ ) ∝ ∑ s ∈ S μ ( s ) ∑ a ∈ A ( s ) ∇ π ( a ∣ s ) q π ( s , a ) \nabla \mathcal J(\theta) \propto \sum_{s \in \mathcal S} \mu(s)\sum_{a \in \mathcal A(s)} \nabla \pi(a \mid s)q_\pi(s,a) J(θ)sSμ(s)aA(s)π(as)qπ(s,a)

至此,完成了求解目标函数梯度 ∇ J ( θ ) \nabla \mathcal J(\theta) J(θ)的全部推倒过程。下一节将介绍蒙特卡洛策略梯度方法(REINFORCE)。

相关参考:
【强化学习】策略梯度方法-策略梯度定理
深度强化学习原理、算法pytorch实战 —— 刘全,黄志刚编著

  • 11
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

静静的喝酒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值