Paper-2 精读GPS (2014 NIPS)

概述

Guided Policy Search可以说是Sergey Levine的成名之作,因此需要重点精读一下,这篇文章因为涉及到Model-based RL的setting,所以公式超级多,尽量配点intuitive的总结,我说这篇论文不难,你信🐎?
可直接跳到文末看一句话总结paper的思想。

一、 GPS的基础知识

LQR基础知识
深度强化学习CS285 lec10-lec12 Model Based RL
GPS的理论知识在这两篇文章里介绍,关于Model-based的强化学习的,现在稍微回顾并深入一下。

1.1 MBRL的Model已知

1.1.1 确定的dynamics model

回忆一下,Model-based RL的dynamics model是确定的,问题定义如下:

a 1 , a 2 , . . . , a T = arg max ⁡ a 1 , a 2 , . . . , a T ∑ t = 1 T r ( s t , a t ) s . t s t + 1 = f ( s t , a t ) a_1,a_2,...,a_T=\argmax_{a_1,a_2,...,a_T}\sum_{t=1}^Tr(s_t,a_t)\\ s.t\quad s_{t+1}=f(s_t,a_t) a1,a2,...,aT=a1,a2,...,aTargmaxt=1Tr(st,at)s.tst+1=f(st,at)

min ⁡ u 1 , … , u T , x 1 , … , x T ∑ t = 1 T c ( x t , u t )  s.t.  x t = f ( x t − 1 , u t − 1 ) \min _{\mathbf{u}_{1}, \ldots, \mathbf{u}_{T}, \mathbf{x}_{1}, \ldots, \mathbf{x}_{T}} \sum_{t=1}^{T} c\left(\mathbf{x}_{t}, \mathbf{u}_{t}\right) \text { s.t. } \mathbf{x}_{t}=f\left(\mathbf{x}_{t-1}, \mathbf{u}_{t-1}\right) u1,,uT,x1,,xTmint=1Tc(xt,ut) s.t. xt=f(xt1,ut1)一个以reward的形式定义,一个以cost的形式定义,其中cost的定义是optimal control中的传统定义,因此此处采用与paper相符合的第二种cost定义形式。
然后把约束写进目标,就变成了下面这种形式:

min ⁡ u 1 , … , u T c ( x 1 , u 1 ) + c ( f ( x 1 , u 1 ) , u 2 ) + ⋯ + c ( f ( f ( … ) … ) , u T ) \begin{array}{l} {\min _{\mathbf{u}_{1}, \ldots, \mathbf{u}_{T}} c\left(\mathbf{x}_{1}, \mathbf{u}_{1}\right)+c\left(f\left(\mathbf{x}_{1}, \mathbf{u}_{1}\right), \mathbf{u}_{2}\right)+\cdots+c\left(f(f(\ldots) \ldots), \mathbf{u}_{T}\right)} \end{array} minu1,,uTc(x1,u1)+c(f(x1,u1),u2)++c(f(f()),uT)

于是LQR就是对确定的dynamics model就是一阶线性近似,对cost function进行二阶近似进行求解,如下:
min ⁡ u 1 , . . . , u T ∑ t = 1 T c ( x t , u t ) s . t x t = f ( x t − 1 , u t − 1 ) f ( x t , u t ) = F t [ x t u t ] + f t c ( x t , u t ) = 1 2 [ x t u t ] T C t [ x t u t ] + [ x t u t ] T c t \min_{u1,...,u_T}\sum_{t=1}^Tc(x_t,u_t)\quad s.t\quad x_t=f(x_{t-1},u_{t-1})\\ f(x_t,u_t)= F_t \left[ \begin{matrix} x_t\\u_t \end{matrix}\right]+f_t \\ c(x_t,u_t)=\frac{1}{2}\left[ \begin{matrix} x_t\\u_t \end{matrix}\right]^TC_t\left[ \begin{matrix} x_t\\u_t \end{matrix}\right]+\left[ \begin{matrix} x_t\\u_t \end{matrix}\right]^Tc_t u1,...,uTmint=1Tc(xt,ut)s.txt=f(xt1,ut1)f(xt,ut)=Ft[xtut]+ftc(xt,ut)=21[xtut]TCt[xtut]+[xtut]Tct

输入初始状态 x 1 x_1 x1,通过Backward Pass得到控制律:
u t = K t x t + k t , t = 1 , 2 , . . . , T u_t=K_tx_t+k_t,t=1,2,...,T ut=Ktxt+kt,t=1,2,...,T
然后Forward Pass解出最优控制序列:
x 2 = f ( x 1 , u 1 ) u 2 = K 2 x 2 + k 2 x 3 = f ( x 2 , u 2 ) ⋮ u T = K T x T + k T x_2=f(x_1,u_1)\\ u_2=K_2x_2+k_2\\ x_3=f(x_2,u_2)\\ \vdots \\ u_T=K_Tx_T+k_T x2=f(x1,u1)u2=K2x2+k2x3=f(x2,u2)uT=KTxT+kT

LQR致命的缺点就是假设了dynamics model即 f ( x t , u t ) f(x_t,u_t) f(xt,ut)是线性的函数,cost function即 c ( x t , u t ) c(x_t,u_t) c(xt,ut)是二次的函数,如果环境dynamics model或者cost funciton更加复杂,如stochastic dynamics model,就得用iLQR了!

1.1.2 随机的dynamics model

当dynamics model 是随机的,问题定义如下:
a 1 , . . . , a T = arg min ⁡ a 1 , . . . , a T E s ′ ∼ p ( s ′ ∣ s , a ) [ ∑ t = 1 T c ( s t , a t ) ∣ a 1 , . . . , a T ] p ( s 1 , s 2 , . . . , s T ∣ a 1 , . . . , a T ) = p ( s 1 ) ∏ t = 1 T p ( s t + 1 ∣ s t , a t ) a_1,...,a_T=\argmin_{a_1,...,a_T}E_{s'\sim p(s'|s,a)}\Big[\sum_{t=1}^Tc(s_t,a_t)\Big|a_1,...,a_T\Big]\\ p(s_1,s_2,...,s_T|a_1,...,a_T)=p(s_1)\prod_{t=1}^Tp(s_{t+1}|s_t,a_t) a1,...,aT=a1,...,aTargminEsp(ss,a)[t=1Tc(st,at)a1,...,aT]p(s1,s2,...,sTa1,...,aT)=p(s1)t=1Tp(st+1st,at)

比如iLQR利用高斯分布的形式,均值参数是线性函数来拟合环境更复杂的动态特性。
i L Q R : f ( x t , u t ) = N ( F t [ x t u t ] + f t , Σ t ) iLQR:f(x_t,u_t)=N\big(F_t \left[ \begin{matrix} x_t\\u_t \end{matrix}\right]+f_t,\Sigma_t\big) iLQR:f(xt,ut)=N(Ft[xtut]+ft,Σt)

iLQR的输入是一条人工初始化的轨迹 x ^ t , u ^ t \hat x_t,\hat u_t x^t,u^t,其中每一个LQR的输入是新旧轨迹之间的差值 x t − x ^ t , u t − u ^ t x_t-\hat x_t,u_t-\hat u_t xtx^t,utu^t,经过Backward Pass知道控制律 u t = K t ( x t − x ^ t ) + k t + u ^ t u_t=K_t(x_t-\hat x_t)+k_t+\hat u_t ut=Kt(xtx^t)+kt+u^t,再通过Forward Pass知道一条较优轨迹 x t , u t x_t,u_t xt,ut

对于这个控制律,还可以加一个line search的参数如下:
u t = K t ( x t − x ^ t ) + α k t + u ^ t u_t = K_t(x_t-\hat x_t)+\alpha k_t + \hat u_t ut=Kt(xtx^t)+αkt+u^t

进而继续用高斯分布的形式来表示iLQR的Controller,也即policy为:
N ( K t ( x t − x ^ t ) + α k t + u ^ t , σ t ) N(K_t(x_t-\hat x_t)+\alpha k_t + \hat u_t,\sigma_t) N(Kt(xtx^t)+αkt+u^t,σt)称为time-varying linear model

1.2 学习Model

LQR用在已知的Model是线性的,iLQR用在已知的model更为复杂的形式,但这个Model怎么学习呢?(这个dynamics model模型是 p ( s ′ ∣ s , a ) p(s'|s,a) p(ss,a))

这个dynamics model常见的类型有:

  1. Gaussian process model :Data-efficient但train得慢,对捕捉非平滑的dynamics不灵敏
  2. Neural Network:泛化性能好,但需要大量数据即 ( s , a , s ′ ) ∈ D (s,a,s')\in D (s,a,s)D
  3. Bayesian Linear Regression:可以给个prior,再拟合,上述两者的折中

从Divide and Conquer的角度去看这个dynamics model的话,学习的是一个 f : S × A → S f:S\times A\rightarrow S f:S×AS的映射,自然地,我们观测到的 ( s , a , s ′ ) (s,a,s') (s,a,s)很难cover到整个state space,而且即使cover到了,state space的不同地方可能有完全不同的dynamics,难以用一个global模型去拟合整个映射,因此想掌握一个复杂的dynamics model有local models与global model之分。

通俗地理解,initial policy converge如 π θ ( a ∣ s ) \pi_\theta(a|s) πθ(as)收敛到optimal policy如 π θ ∗ ( a ∣ s ) \pi_{\theta^*}(a|s) πθ(as)的过程中, π θ ( a ∣ s ) \pi_\theta(a|s) πθ(as) π θ ∗ ( a ∣ s ) \pi_{\theta^*}(a|s) πθ(as)探索到state space肯定是不一样的,因此在dynamics model的学习过程中也会遇到同样的问题,如果用很傻的policy去收集transition如 ( s , a , s ′ ) (s,a,s') (s,a,s),那探索得到的dynamics model肯定是不完整的,难以cover到足够的最优policy的空间。
把人当agent,环境当dynamics model来做个比喻:小孩即initial policy收集的环境model是玩具、游戏、电竞这种熟悉的数据,基于这些数据训练的环境 model能预测大佬即optimal policy所处的环境如天下大事,预料之中?

所以训练一个完美的global model是很难的,需要解决数据的covariate shift的问题,因此从local model迭代做起!所以当没有环境model时,即Unknown Dynamics。最好的方法肯定是边看边学,即initial policy收集一些trajectories,对这些trajectories拟合一个local dynamics model,用其进行policy update,再用update policy收集一些trajectories,再拟合一个local dynamics model,如此下去通往optimal policy。

1.3 Unknown Dynamics

概括如下:

  1. Run controller (Policy) on robot to collect trajectories
  2. Fit dynamics model to collected trajectories
  3. Update policy with new dynamics model
    1然后下面开始细化具体步骤。

1.3.1 Run the controller (policy)

现在有一些初始的trajectories如 { τ ( i ) } i = 1 N \{\tau^{(i)}\}_{i=1}^N {τ(i)}i=1N,然后用iLQR优化以下目标:
min ⁡ ∑ t = 1 T E ( x t , u t ) [ c ( x t , u t ) − H ( u t ∣ x t ) ] \min\sum_{t=1}^TE_{(x_t,u_t)}[c(x_t,u_t)-H(u_t|x_t)] mint=1TE(xt,ut)[c(xt,ut)H(utxt)]就得到一个Controller或Policy即:
N ( K t ( x t − x ^ t ) + α k t + u ^ t , Q u t , u t − 1 ) N(K_t(x_t-\hat x_t)+\alpha k_t + \hat u_t,Q_{u_t,u_t}^{-1}) N(Kt(xtx^t)+αkt+u^t,Qut,ut1)

1.3.2 Fitting dynamics

利用上述Controller与环境真实的dynamics交互得到一些transition即 ( x t , u t , x t + 1 ) (x_t,u_t,x_{t+1}) (xt,ut,xt+1),跑一个Bayesian linear regression进行dynamics model的拟合:
p ( x t + 1 ∣ x t , u t ) = N ( A t x t + B t u t + c , σ ) p(x_{t+1}|x_t,u_t)=N(A_tx_t+B_tu_t+c,\sigma) p(xt+1xt,ut)=N(Atxt+Btut+c,σ)

1.3.3 Improve the controller

因为dynamics model是local的,所以当policy update利用这个local model进行iLQR时,就要得让新轨迹 τ \tau τ与旧轨迹 τ ˉ \bar\tau τˉ之间在一定范围内接近。公式描述如下:
p ( τ ) = p ( x 1 ) ∏ t = 1 T p ( u t ∣ x t ) p ( x t + 1 ∣ x t , u t ) p ( u t ∣ x t ) = N ( K t ( x t − x ^ t ) + k t + u ^ t , Σ t ) p(\tau)=p(x_1)\prod_{t=1}^Tp(u_t|x_t)p(x_{t+1}|x_t,u_t)\\ p(u_t|x_t)=N(K_t(x_t-\hat x_t)+k_t+\hat u_t,\Sigma_t) p(τ)=p(x1)t=1Tp(utxt)p(xt+1xt,ut)p(utxt)=N(Kt(xtx^t)+kt+u^t,Σt)

优化问题变为:

min ⁡ p ( τ ) ∑ t = 1 T E p ( x t , u t ) [ c ( x t , u t ) ] s . t D K L ( p ( τ ) ∣ ∣ p ˉ ( τ ) ) ≤ ϵ \min_{p(\tau)}\sum_{t=1}^TE_{p(x_t,u_t)}\Big[c(x_t,u_t)\Big]\\s.t \quad D_{KL}(p(\tau)||\bar p(\tau))\leq\epsilon p(τ)mint=1TEp(xt,ut)[c(xt,ut)]s.tDKL(p(τ)pˉ(τ))ϵ

p ( τ ) = p ( x 1 ) ∏ t = 1 T p ( u t ∣ x t ) p ( x t + 1 ∣ x t , u t ) p ˉ ( τ ) = p ( x 1 ) ∏ t = 1 T p ˉ ( u t ∣ x t ) p ( x t + 1 ∣ x t , u t ) p(\tau)=p(x_1)\prod_{t=1}^Tp(u_t|x_t)p(x_{t+1}|x_t,u_t)\\ \bar p(\tau)=p(x_1)\prod_{t=1}^T\bar p(u_t|x_t)p(x_{t+1}|x_t,u_t) p(τ)=p(x1)t=1Tp(utxt)p(xt+1xt,ut)pˉ(τ)=p(x1)t=1Tpˉ(utxt)p(xt+1xt,ut)

D K L ( p ( τ ) ∣ ∣ p ˉ ( τ ) ) = E p ( τ ) [ l o g p ( τ ) p ˉ ( τ ) ] = E p ( τ ) [ l o g p ( τ ) − l o g p ˉ ( τ ) ] = E ( x t , u t ) ∼ p ( τ ) [ ∑ t = 1 T ( l o g p ( u t ∣ x t ) − l o g p ˉ ( u t ∣ x t ) ) ] = ∑ t = 1 T [ E p ( x t , u t ) l o g p ( u t ∣ x t ) + E p ( x t , u t ) [ − l o g p ˉ ( u t ∣ x t ) ] ] = ∑ t = 1 T [ E p ( x t ) E p ( u t ∣ x t ) l o g p ( u t ∣ x t ) + E p ( x t , u t ) [ − l o g p ˉ ( u t ∣ x t ) ] ] = ∑ t = 1 T [ − E p ( x t ) [ H ( p ( u t ∣ x t ) ) ] + E p ( x t , u t ) [ − l o g p ˉ ( u t ∣ x t ) ] ] = ∑ t = 1 T E p ( x t ) [ H [ p , p ˉ ] − H [ p ] ] = ∑ t = 1 T E p ( x t , u t ) [ − l o g p ˉ ( u t ∣ x t ) − H [ p ( u t ∣ x t ) ] ] \begin{aligned} D_{KL}(p(\tau)||\bar p(\tau))&=E_{p(\tau)}\Big[log\frac{p(\tau)}{\bar p(\tau)}\Big]\\ &=E_{p(\tau)}\Big[logp(\tau)-log\bar p(\tau)\Big]\\ &=E_{(x_t,u_t)\sim p(\tau)}\Big[\sum_{t=1}^T\Big(logp(u_t|x_t)-log\bar p(u_t|x_t)\Big)\Big]\\ &=\sum_{t=1}^T\Big[E_{p(x_t,u_t)}logp(u_t|x_t)+E_{p(x_t,u_t)}\big[-log\bar p(u_t|x_t)\big]\Big]\\ &=\sum_{t=1}^T\Big[E_{p(x_t)}E_{p(u_t|x_t)}logp(u_t|x_t)+E_{p(x_t,u_t)}\big[-log\bar p(u_t|x_t)\big]\Big]\\ &=\sum_{t=1}^T\Big[-E_{p(x_t)}\big[H\big(p(u_t|x_t)\big)\big]+E_{p(x_t,u_t)}\big[-log\bar p(u_t|x_t)\big]\Big]\\ &=\sum_{t=1}^TE_{p(x_t)}\Big[H[p,\bar p]-H[p]\Big]\\ &=\sum_{t=1}^TE_{p(x_t,u_t)}\big[-log\bar p(u_t|x_t)-H[p(u_t|x_t)]\big] \end{aligned} DKL(p(τ)pˉ(τ))=Ep(τ)[logpˉ(τ)p(τ)]=Ep(τ)[logp(τ)logpˉ(τ)]=E(xt,ut)p(τ)[t=1T(logp(utxt)logpˉ(utxt))]=t=1T[Ep(xt,ut)logp(utxt)+Ep(xt,ut)[logpˉ(utxt)]]=t=1T[Ep(xt)Ep(utxt)logp(utxt)+Ep(xt,ut)[logpˉ(utxt)]]=t=1T[Ep(xt)[H(p(utxt))]+Ep(xt,ut)[logpˉ(utxt)]]=t=1TEp(xt)[H[p,pˉ]H[p]]=t=1TEp(xt,ut)[logpˉ(utxt)H[p(utxt)]]

所以对这个优化问题使用拉格朗日变成无约束目标再优化其对偶问题:

min ⁡ p ( τ ) ∑ t = 1 T E p ( x t , u t ) [ c ( x t , u t ) ] s . t D K L ( p ( τ ) ∣ ∣ p ˉ ( τ ) ) ≤ ϵ \min_{p(\tau)}\sum_{t=1}^TE_{p(x_t,u_t)}\Big[c(x_t,u_t)\Big]\\s.t \quad D_{KL}(p(\tau)||\bar p(\tau))\leq\epsilon p(τ)mint=1TEp(xt,ut)[c(xt,ut)]s.tDKL(p(τ)pˉ(τ))ϵ

原问题变为:

min ⁡ p max ⁡ λ ∑ t = 1 T E p ( x t , u t ) [ c ( x t , u t ) ] + λ ( D K L ( p ( τ ) ∣ ∣ p ˉ ( τ ) ) − ϵ ) \min_p\max_\lambda \sum_{t=1}^TE_{p(x_t,u_t)}\Big[c(x_t,u_t)\Big]+\lambda(D_{KL}(p(\tau)||\bar p(\tau))-\epsilon) pminλmaxt=1TEp(xt,ut)[c(xt,ut)]+λ(DKL(p(τ)pˉ(τ))ϵ)

对偶问题变为:

max ⁡ λ min ⁡ p ∑ t = 1 T E p ( x t , u t ) [ c ( x t , u t ) ] + λ ( D K L ( p ( τ ) ∣ ∣ p ˉ ( τ ) ) − ϵ ) \max_\lambda \min_p\sum_{t=1}^TE_{p(x_t,u_t)}\Big[c(x_t,u_t)\Big]+\lambda(D_{KL}(p(\tau)||\bar p(\tau))-\epsilon) λmaxpmint=1TEp(xt,ut)[c(xt,ut)]+λ(DKL(p(τ)pˉ(τ))ϵ)

然后固定 λ \lambda λ优化内项:
min ⁡ p ∑ t = 1 T E p ( x t , u t ) [ c ( x t , u t ) − λ l o g p ˉ ( u t ∣ x t ) − λ H ( p ( u t ∣ x t ) ) ] − λ ϵ = min ⁡ p ∑ t = 1 T E p ( x t , u t ) [ 1 λ c ( x t , u t ) − l o g p ˉ ( u t ∣ x t ) − H ( p ( u t ∣ x t ) ) ] − ϵ = min ⁡ p ∑ t = 1 T E p ( x t , u t ) [ c ˉ ( x t , u t ) − H ( p ( u t ∣ x t ) ) ] − ϵ \begin{aligned} &\min_p\sum_{t=1}^TE_{p(x_t,u_t)}\Big[c(x_t,u_t)-\lambda log\bar p(u_t|x_t)-\lambda H(p(u_t|x_t))\Big]-\lambda\epsilon\\ &= \min_p \sum_{t=1}^TE_{p(x_t,u_t)}[\frac{1}{\lambda}c(x_t,u_t)-log\bar p(u_t|x_t)-H(p(u_t|x_t))]-\epsilon\\ &= \min_p \sum_{t=1}^TE_{p(x_t,u_t)}[\bar c(x_t,u_t)-H(p(u_t|x_t))]-\epsilon \end{aligned} pmint=1TEp(xt,ut)[c(xt,ut)λlogpˉ(utxt)λH(p(utxt))]λϵ=pmint=1TEp(xt,ut)[λ1c(xt,ut)logpˉ(utxt)H(p(utxt))]ϵ=pmint=1TEp(xt,ut)[cˉ(xt,ut)H(p(utxt))]ϵ对这个Objective 跑一个iLQR,得到一个新的controller policy p ∗ ( u t ∣ x t ) p^*(u_t|x_t) p(utxt)

然后将 p ∗ ( u t ∣ x t ) p^*(u_t|x_t) p(utxt)代入目标,优化外项 λ \lambda λ
λ ← + α ( D K L ( p ( τ ) ∣ ∣ p ˉ ( τ ) ) − ϵ ) \lambda \leftarrow + \alpha (D_{KL}(p(\tau)||\bar p(\tau))-\epsilon) λ+α(DKL(p(τ)pˉ(τ))ϵ)

1.4 小总结

如果上面公式看得迷糊,这里总结一下流程:

  • 如果dynamics model已知,是确定性的话,根据初始状态,跑一下LQR就可以知道动作序列了(比如五子棋dynamics model直接人为写好了,离散而且好写)
  • 如果dynamics model已知,是随机性的话,初始化一条轨迹,跑一下iLQR的Backward Pass就得到一个比较好的controller,即 u t = K t ( x t − x ^ t ) + k t + u ^ t u_t = K_t(x_t-\hat x_t)+k_t + \hat u_t ut=Kt(xtx^t)+kt+u^t,于是然后希望它有一些泛化性就变成一个高斯controller即 N ( K t ( x t − x ^ t ) + k t , Q u t , u t − 1 ) N(K_t(x_t-\hat x_t)+k_t,Q_{u_t,u_t}^{-1}) N(Kt(xtx^t)+kt,Qut,ut1),使用这个controller跑一下iLQR的Forward Pass经历真实的dynamics从而得到一条新的轨迹,迭代下去就可以知道动作序列了~
  • 如果dynamics model未知,随机收集一下transitions,然后用Bayesian linear regression去拟合一个local dynamics model,利用这个local dynamics model跑iLQR,得到高斯controller即 N ( K t ( x t − x ^ t ) + k t , Q u t , u t − 1 ) N(K_t(x_t-\hat x_t)+k_t,Q_{u_t,u_t}^{-1}) N(Kt(xtx^t)+kt,Qut,ut1),用它跑一些transitions,然后fitting local dynamics model,继续iLQR,如此迭代下去,就可以得到比较好的policy了即动作序列。

二、Guided Policy Search

2
大家发现了没?GPS的基础知识都是传统方法呀!名为Trajectory Optimization,所以很复杂(不忍卒读)= =完全没有神经网络呀!它的dynamics model是由Bayesian linear regression得到的,它的controller(policy)是由iLQR得到的,神经网络呢!!!?因此,现在就引入一个global policy 或global controller,即图上的 π θ ( u t ∣ o t ) \pi_\theta(u_t|o_t) πθ(utot) π θ ( u t ∣ x t ) \pi_\theta(u_t|x_t) πθ(utxt)
那么现在正式进入正题!

  • 首先问:传统方法得到的controller即 N ( K t ( x t − x ^ t ) + k t , Q u t , u t − 1 ) N(K_t(x_t-\hat x_t)+k_t,Q_{u_t,u_t}^{-1}) N(Kt(xtx^t)+kt,Qut,ut1)有什么问题?
    答: 这丫需要先训练一个dynamics model,然后一个expert demonstration作为初始轨迹,然后从中得到一个time-varying linear Gaussian controller,因此该controller只能在这个demonstration附近有用,离这个controller比较远的情况就不知道了(所以迭代的时候才要求新controller离旧controller比较近呀!)所以泛化性能超级差!一个expert demonstration而已呀!
  • Guided Policy Search有什么用?
    答: 从expert demonstrations,用传统方法可以学出好多个controllers呀!于是就可以用监督学习的方式,将这些controller学习到的sub-optimal behavior且泛化差的专家知识,全部放到一个神经网络中!而不再是不同的初始轨迹状态,用不同的controller去完成,一个神经网络就足够了!

接下来看看流程!
3

notation稍微有点不一样。下面文字解释一下:

  1. 用iLQR的方法从expert demonstrations中弄出n个controllers即 π 1 , . . . , π n \pi_1,...,\pi_n π1,...,πn
  2. 分别用这个n个controllers收集m个trajectories即 τ 1 , . . . , τ m \tau_1,...,\tau_m τ1,...,τm
  3. 利用m个trajectories中的 ( s , a ) (s,a) (s,a)最大似然监督学习,得到一个初始的网络policy即 π θ ∗ \pi_{\theta^*} πθ
  4. π 1 , . . . , π n , π θ ∗ \pi_1,...,\pi_n,\pi_{\theta^*} π1,...,πn,πθ与环境交互收集一些trajectories的样本为 S S S(与Buffer超级像了啦!)
  5. 进入迭代过程
  6. S S S中Sample一个子集 S k S_k Sk(与Off-Policy超级像了啦!)
  7. 终于是强化里面的Policy Gradient的Objective了,加了个Importance Sampling以及normalize the importance weights,得到一个新的policy π θ k \pi_{\theta^k} πθk(论文中是用LBFGS的优化方法弄的)
    4
  8. π θ k \pi_{\theta^k} πθk跑一些samples加到样本集 S S S
  9. r ˉ ( x t , u t ) = r ( x t , u t ) + l o g π θ k ( u t ∣ x t ) \bar r(x_t,u_t)=r(x_t,u_t)+log\pi_{\theta^k}(u_t|x_t) rˉ(xt,ut)=r(xt,ut)+logπθk(utxt)这个跑一下iLQR得一个controller,跑一些adaptive samples出来
  10. 然后下面的就如图了

三、总结

Guided Policy Search的想法,很朴素!
一句话总结就是通过传统方法利用expert demonstrations弄一些泛化差的controllers出来,然后用expressive的模型去拟合这些controllers。
所以Guidance来自于由传统方法得到的“局部专家”
然后这思想被疯狂延伸,比如2016 NIPS的GAIL这篇Paper,利用拟合expert demonstrations的occupancy measure来指导Policy Update的过程!

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值