Unsupervised RL:METRA: Scalable Unsupervised RL with Metric-Aware Abstraction

本文介绍了一种新的无监督强化学习方法METRA,它通过构造紧凑的隐空间来处理复杂状态,利用时间距离度量指导行为探索,从而实现对高维环境的有效覆盖。该方法通过优化Wasserstein依赖度,简化计算并支持零次设定目标的达成。
摘要由CSDN通过智能技术生成

ICLR 2024 Oral
paper

Intro

无监督RL旨在发现潜在的行为帮助提高下游任务效率以往方法集中于探索以及基于互信息的技能发现(skill)。然而去前者在高危复杂空间实现困难,后者也容易因为缺乏激励导致探索能力不足。本文提出METRA核心观点认为与其在复杂状态空间处理,不如构造一个更紧凑的隐空间z,类似于PCA将复杂状态空间简化: ϕ : S → Z \phi:\mathcal{S}\rightarrow\mathcal{Z} ϕ:SZ,而z可以通过时间距离(temporal distances)度量metric d链接到状态空间。
在这里插入图片描述
采用时间距离度量(状态间转换的最小交互步数)的原因是其对状态表征是不变的,因此该度量适用于pixel-based的任务。因此,通过最大化Z空间中的覆盖,可以获得近似覆盖整个状态空间的各种行为,便可实现扩展到高维、复杂的环境。

Method

METRA的目标是基于Z空间实现状态空间的最大化覆盖。类似于Skill-based的无监督方法,提出如下优化目标
I W ( S ; Z ) = W ( p ( s , z ) , p ( s ) p ( z ) ) , I_{\mathcal W}(S;Z)=\mathcal{W}(p(s,z),p(s)p(z)), IW(S;Z)=W(p(s,z),p(s)p(z)),
上式计算了状态与skills之间的Wasserstein dependency measure (WDM)。为了让上述目标简介且易于计算,采用Kantorovich-Rubenstein duality提供一种可计算的方式最大化WDM。
I W ( S ; Z ) = sup ⁡ ∥ f ∥ L ≤ 1 E p ( s , z ) [ f ( s , z ) ] − E p ( s ) p ( z ) [ f ( s , z ) ] v \begin{aligned}I_{\mathcal{W}}(S;Z)=\sup_{\|f\|_{L}\leq1}\mathbb{E}_{p(s,z)}[f(s,z)]-\mathbb{E}_{p(s)p(z)}[f(s,z)]\end{aligned}v IW(S;Z)=fL1supEp(s,z)[f(s,z)]Ep(s)p(z)[f(s,z)]v
直观来说更希望采样联合分布的(s,z)而非边际分布的(s,z)。上述目标是可计算的,可以设置f为1阶李普希兹连续的函数,通过梯度下降优化,而z-condition的策略 π ( a ∣ s , z ) \pi(a|s,z) π(as,z)可以通过RL算法优化,其奖励函数表示为: r ( s , z ) = f ( s , z ) − N − 1 ∑ i = 1 N f ( s , z i ) r(s,z)=f(s,z)-N^{-1}\sum_{i=1}^Nf(s,z_i) r(s,z)=f(s,z)N1i=1Nf(s,zi)。而对每一个状态都需要从z的先验分布中采集N个 z i z_i zi,这样计算量增加。

因此本文简化计算量提出参数化 f ( s , a ) = ϕ ( s ) ⊤ ψ ( z ) f(s,a)=\phi(s)^{\top}\psi(z) f(s,a)=ϕ(s)ψ(z)。上述优化目标转化为:
I W ( S ; Z ) ≈ sup ⁡ ∥ ϕ ∥ L ≤ 1 , ∥ ψ ∥ L ≤ 1 E p ( s , z ) [ ϕ ( s ) ⊤ ψ ( z ) ] − E p ( s ) [ ϕ ( s ) ] ⊤ E p ( z ) [ ψ ( z ) ] . I_{\mathcal{W}}(S;Z)\approx\operatorname*{sup}_{\|\phi\|_{L}\leq1,\|\psi\|_{L}\leq1}\mathbb{E}_{p(s,z)}[\phi(s)^{\top}\psi(z)]-\mathbb{E}_{p(s)}[\phi(s)]^{\top}\mathbb{E}_{p(z)}[\psi(z)]. IW(S;Z)ϕL1,ψL1supEp(s,z)[ϕ(s)ψ(z)]Ep(s)[ϕ(s)]Ep(z)[ψ(z)].
原文给出证明,在隐空间维度D趋于正无穷时 f ( s , a ) f(s,a) f(s,a) ϕ ( s ) ⊤ ψ ( z ) \phi(s)^{\top}\psi(z) ϕ(s)ψ(z)等价。然后考虑状态为最后T时刻的设定
I W ( S T ; Z ) ≈ sup ⁡ ∥ ϕ ∥ L ≤ 1 , ∥ ψ ∥ L ≤ 1 E p ( τ , z ) [ ϕ ( s T ) ⊤ ψ ( z ) ] − E p ( τ ) [ ϕ ( s T ) ] ⊤ E p ( z ) [ ψ ( z ) ] = sup ⁡ ϕ , ψ ∑ t = 0 T − 1 ( E p ( τ , z ) [ ( ϕ ( s t + 1 ) − ϕ ( s t ) ) ⊤ ψ ( z ) ] − E p ( τ ) [ ϕ ( s t + 1 ) − ϕ ( s t ) ] ⊤ E p ( z ) [ ψ ( z ) ] ) , \begin{aligned}I_{\mathcal{W}}(S_T;Z)&\approx\sup_{\|\phi\|_L\leq1,\|\psi\|_L\leq1}\mathbb{E}_{p(\tau,z)}[\phi(s_T)^\top\psi(z)]-\mathbb{E}_{p(\tau)}[\phi(s_{T})]^{\top}\mathbb{E}_{p(z)}[\psi(z)]\\&=\sup_{\phi,\psi}\sum_{t=0}^{T-1}\big(\mathbb{E}_{p(\tau,z)}\big[(\phi(s_{t+1})-\phi(s_t))^\top\psi(z)\big]-\left.\mathbb{E}_{p(\tau)}[\phi(s_{t+1})-\phi(s_{t})]^{\top}\mathbb{E}_{p(z)}[\psi(z)]\right),\end{aligned} IW(ST;Z)ϕL1,ψL1supEp(τ,z)[ϕ(sT)ψ(z)]Ep(τ)[ϕ(sT)]Ep(z)[ψ(z)]=ϕ,ψsupt=0T1(Ep(τ,z)[(ϕ(st+1)ϕ(st))ψ(z)]Ep(τ)[ϕ(st+1)ϕ(st)]Ep(z)[ψ(z)]),
其中 p ( s 0 ) p(s_0) p(s0) p ( z ) p(z) p(z)独立分布,设 ψ ( z ) = z \psi(z)=z ψ(z)=z, 约简优化目标为
I W ( S T ; Z ) ≈ sup ⁡ ∥ ϕ ∥ L ≤ 1 E p ( τ , z ) [ ∑ t = 0 T − 1 ( ϕ ( s t + 1 ) − ϕ ( s t ) ) ⊤ ( z − z ˉ ) ] I_{\mathcal{W}}(S_T;Z)\approx\sup\limits_{\|\phi\|_L\leq1}\mathbb{E}_{p(\tau,z)}\left[\sum\limits_{t=0}^{T-1}(\phi(s_{t+1})-\phi(s_t))^\top(z-\bar{z})\right] IW(ST;Z)ϕL1supEp(τ,z)[t=0T1(ϕ(st+1)ϕ(st))(zzˉ)]
且其中 z ˉ = E p ( z ) [ z ] {\bar{z}}={\mathbb{E}}_{p(z)}[z] zˉ=Ep(z)[z],若是z均值为0那该问题可看作奖励函数 r ( s , z , s ′ ) = ( ϕ ( s ′ ) − ϕ ( s ) ) ⊤ z \begin{aligned}r(s,z,s^{\prime})=(\phi(s^{\prime})-\phi(s))^{\top}z\end{aligned} r(s,z,s)=(ϕ(s)ϕ(s))z的RL问题,联合优化 ϕ \phi ϕ π ( a ∣ s , z ) \pi(a|s,z) π(as,z)

METRA

到目前为止,上述问题没有指定距离函数 d d d, 本文提出两个状态时间距离 d t e m p ( s 1 , s 2 ) d_{\mathrm{temp}}(s_{1},s_{2}) dtemp(s1,s2), 即从 s 1 s_1 s1 s 2 s_2 s2最小环境交互步数。那么优化问题为
sup ⁡ π , ϕ E p ( τ , z ) [ ∑ t = 0 T − 1 ( ϕ ( s t + 1 ) − ϕ ( s t ) ) ⊤ z ] s . t . ∥ ϕ ( s ) − ϕ ( s ′ ) ∥ 2 ≤ 1 , ∀ ( s , s ′ ) ∈ S adj , \begin{aligned}\sup_{\pi,\phi}\mathbb{E}_{p(\tau,z)}\left[\sum_{t=0}^{T-1}(\phi(s_{t+1})-\phi(s_{t}))^{\top}z\right]\\\mathrm{s.t.}\|\phi(s)-\phi(s')\|_2\leq1,\forall(s,s')\in\mathcal{S}_{\text{adj}},\end{aligned} π,ϕsupEp(τ,z)[t=0T1(ϕ(st+1)ϕ(st))z]s.t.ϕ(s)ϕ(s)21,(s,s)Sadj,
其中 S adj \mathcal{S}_{\text{adj}} Sadj为相邻状态对的集合,因此d=1。直观来说,上述目标迫使策略 π ( a ∣ s , z ) \pi(a|s,z) π(as,z)尽可能向着由z指定的方向进行探索,但是由于 ∥ ϕ ( s 1 ) − ϕ ( s 2 ) ∥ 2 \|\phi(s_{1})-\phi(s_{2})\|_{2} ϕ(s1)ϕ(s2)2存在一个upper bound。这样潜在空间应该将其(有限的)维度分配给原始状态空间中流形最大限度“展开”的状态。从某种意义上说,状态集中的最短路径应该尽可能长
在这里插入图片描述

在这里插入图片描述

Zero-shot goal-reaching with METRA

得益于 ϕ ( s ) \phi(s) ϕ(s)考虑时间距离上的状态抽象,可以方便的实现Zero-shot goal-reaching 。只需将方向设置 z = ( ϕ ( g ) − ϕ ( s ) ) / ∥ ϕ ( g ) − ϕ ( s ) ∥ 2 z=(\phi(g)-\phi(s))/\|\phi(g)-\phi(s)\|_{2} z=(ϕ(g)ϕ(s))/∥ϕ(g)ϕ(s)2(连续技能)或者 z = arg ⁡ max ⁡ dim ⁡ ( ϕ ( g ) − ϕ ( s ) ) z=\arg\max_{\dim}\left(\phi(g)-\phi(s)\right) z=argmaxdim(ϕ(g)ϕ(s))(离散技能)

  • 27
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值