强化学习笔记-0910 On-policy Method with Approximation

文章探讨了在强化学习中,当状态-动作空间过大时,如何从表格形式的价值函数转向参数模型。通过监督学习来拟合状态价值,并使用SGD或半梯度方法(如TD(0),TD(n))进行优化。在连续任务中,文章介绍了平均收益的概念,以适应无终止状态的情景,并提供了基于TD(n)的on-policySarsa算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前几章我们所讨论的强化学习方法都是将价值函数v(s)建模为一个table形式,通过状态s来查询具体状态的价值。但是当状态-动作空间极大,且多数状态-动作并没有太大意义时,这种table查询效率是极低的。

因此本节是将价值函数建模为一个参数模型v(s|w),其中w是该价值预估模型的参数,而状态s是价值预估模型的输出,通过模型来输出该状态的价值预估。

1. supervised learning

那么如何来学习这个模型,该模型主要在于拟合状态的价值,该价值可以表示为最优动作决策下的最优收益G_\pi(s)。为了拟合这个函数,采用来监督学习的方式,定义如下学习损失The Prediction Objective (VE):

\bar{VE}(w)=\sum_s \mu (s)[G_\pi (s)-v(s|w)]^2

上式中的\mu(s)表示状态s的出现概率,满足\sum_s \mu(s)=1,假设\eta(s)表示单个episode中状态s的平均出现次数,h(s)表示状态s出现在单个episode的初始状态的概率。

\eta(s)=h(s)+\sum_{​{s}'}\eta (s')\sum_a \pi(a|s')p(s,r|s',a)

\mu(s)=\frac{\eta (s)}{\sum_{s'}\eta(s')}

2. Stochastic-gradient and Semi-gradient Methods

求解模型参数采用SGD的进行优化:

w_{t+1}=w_t - \frac{1}{2}\alpha \partial_w[G_\pi(s)-v(s|w)]^2=w_t + \alpha[G_\pi(s)-v(s|w)]\partial_w v(s|w)

上式中的G_\pi(s)表示在决策函数\pi下的状态价值,我们可以通过MC方法通过采样获得累积奖励来计算。

另一种方法是通过TD或者DP算法类似的bootstrapping方法,通过一个预估值U(s)来取代真实采样的累积收益G_\pi(s)。这种方式称为Semi-gradient Methods。

  • 动态规划:U_t(s) = \sum_{s'} [r + \gamma v(s'|w)] \sum_a \pi(a|s')p(s, r|s',a)
  • TD(0):U_t(s)=r_{t+1} + \gamma v(s_{t+1}|w)
  • TD(n):U_t(s)=\sum_{i=0}^{n-1}\gamma^{i} r_{t+i+1} + \gamma^{n} v(s_{t+n}|w)

3. Episodic Semi-gradient Control

前面讨论了如何通过模型来估计价值函数,接下来我们很容易结合GPI策略,构造value estimate、policy improve的两步强化学习过程TD(0) on-policy sarsa:

同时TD(n) on-policy sarsa可以表示为如下,可以看出其主要是将原来的table方法中的Q(s,a)值更新替换为价值预估模型中参数更新。

4. Average Reward: Continuing Tasks 

 之前在求解累积收益G_t时,引入了一个折扣因子\gamma,其主要有两部分原因:一是为了避免累积收益值不收敛,另一个是考虑到近期收益影响更大。然而当面临一个连续动作场景(没有开始状态以及最终状态)时,后者假设就是有问题的,特别是处于某种均衡的摇摆状态时,添加折扣将会丢失未来的状态信息。因此存在另一式Average Reward的方式,其也可以避免累积收益值不收敛。

首先定义决策\pi下的平均收益:

r(\pi)=\sum_s \mu_{\pi}(s)\sum_a\pi(a|s)\sum_{s'}p(s,r|s',a)r

此外定义了差分累积收益G_t

G_t=r_{t+1}-r(\pi)+r_{t+2}-r(\pi)+... = \sum_{i=1} (r_{t+i}-r(\pi))

TD(n)形式下可以定义为:

G_t=\sum_{i=1}^n(r_{t+i}-r(\pi))+v(s_{t+n}|w)

\delta_t(s_t)=G_t(s)-v(s|w)=\sum_{i=1}^n(r_{t+i}-r(\pi))+v(s_{t+n}|w)-v(s_t|w)

平均收益可以如下方式进行迭代:

r_{t+1}(\pi)=\frac{1}{t+1}\sum_i^{t+1} r_i =r_{t}(\pi) + \frac{1}{t+1}(r_t-r_{t}(\pi))\\ =r_{t}(\pi) + \beta (\sum_{i}^n[r_t - r_{t}(\pi)]+v(s_{t+n}|w)-v(s_t|w))

此时基于TD(n)的on-policy Sarsa的算法描述如下:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值