Planning and Learning

这算是一篇综述性文章,讲的不深,但是可以了解做planning都有哪些方法。这篇文章里全部使用了Q的说法,因为实现上可能是网络DQN,也可以是经典的Table。

Models and Planning

Models指的是Environment Models,可以分为两大类:

  1. 当前状态和采取的动作作为输入,输出下一个所有可能状态和奖励的分布
  2. 当前状态和采取的动作作为输入,输出下一个状态和奖励

Planning则是指对模型的合理使用,指定使用模型的"策略"(跟policy区分开,使用策略的意思),用最低的成本收敛到价值函数。

Dyna-Q: Integrating Planning, Acting, and Learning

如果能有完美的环境模型,就可以使用类似动态规划那样的planning方法来更快更好地收敛Q,但是实际上由于各种各样的原因,我们手上的模型可能没有那么完美。

于是乎,是不是可以先学出个差不多的环境模型,然后使用这个环境模型来学习Q?这当然可以,而且学到的Q也能用于优化策略从而生成更好的样本,然后更新环境模型和Q,这样持续的迭代下去。这样我们就有了两种更新Q的方式:

  1. 通过真实经验学到的环境模型生成的模拟样本更新
  2. 直接通过真实经验更新

这个过程可以描述为:
在这里插入图片描述

Tabular Dyna-Q

1 :   I n i t i a l i z e Q ( s , a ) 1:\ Initialize Q(s,a) 1: InitializeQ(s,a) and M o d e l ( s , a ) Model(s,a) Model(s,a) for all s ∈ S s \in S sS and a ∈ A ( s ) a \in A(s) aA(s)
2 :   D o   f o r e v e r 2:\ Do \ forever 2: Do forever:
3 :   ( a )   S ← 3:\ \qquad (a) \ S \leftarrow 3: (a) S current (nonterminal) state
4 :   ( b )   A ← ϵ 4:\ \qquad (b) \ A \leftarrow \epsilon 4: (b) Aϵ-greedy ( S , Q ) (S,Q) (S,Q)
5 :   ( c )   E x e c u t e 5:\ \qquad (c) \ Execute 5: (c) Execute action A A A, observe resultant reward R R R and next state S ′ S' S
6 :   ( d )   Q ( S , A ) ← Q ( S , A ) + α [ R + γ m a x a Q ( S ′ , a ) − Q ( S , A ) ] 6:\ \qquad (d) \ Q(S,A) \leftarrow Q(S,A) + \alpha[R+\gamma max_aQ(S',a)-Q(S,A)] 6: (d) Q(S,A)Q(S,A)+α[R+γmaxaQ(S,a)Q(S,A)]
7 :   ( e ) M o d e l ( S , A ) ← R , S ′ 7:\ \qquad (e) Model(S,A) \leftarrow R,S' 7: (e)Model(S,A)R,S(assuming deterministic environment)
8 :   ( f ) R e p e a t   n 8:\ \qquad (f) Repeat \ n 8: (f)Repeat n times:
9 :   S ← 9:\ \qquad \qquad S \leftarrow 9: S random previously observed state
10 : A ← 10: \qquad \qquad A \leftarrow 10:Arandom action previously taken in S S S
11 : R , S ′ ← M o d e l ( S , A ) 11: \qquad \qquad R,S' \leftarrow Model(S,A) 11:R,SModel(S,A)
12 : Q ( S , A ) ← Q ( S , A ) + α [ R + γ m a x a Q ( S ′ , a ) − Q ( S , A ) ] 12: \qquad \qquad Q(S,A) \leftarrow Q(S,A) + \alpha[R+\gamma max_aQ(S',a)-Q(S,A)] 12:Q(S,A)Q(S,A)+α[R+γmaxaQ(S,a)Q(S,A)]

算法里写的 A A A指代整个动作集合,实际运作时只会执行 a a a S S S S ′ S' S同理。原算法这样给的,我也不敢随便改。

算法里plannaing步骤中,

算法可以使用下面这张图描述:
在这里插入图片描述

Prioritized Sweeping

前面的Planning搜索是随机的,见算法 D y n a − Q Dyna-Q DynaQ第9行,第10行。下面要讲的优先扫除算法加入了优先队列,每次把变化最大的临近4个(可以单步直接到达)加进去,与广度优先搜索求最短路径有相似地方。

我觉得其实是贪心算法+beam search,维持search窗口大小为4,窗口大小对结果肯定有影响,所以实际做的时候可以尝试改变这个4.
Prioritized sweeping for a deterministic environment

1 :   I n i t i a l i z e Q ( s , a ) ,   M o d e l ( s , a ) 1:\ Initialize Q(s,a), \ Model(s,a) 1: InitializeQ(s,a), Model(s,a), for all s , a s,a s,a and P Q u e u e PQueue PQueue to empty
2 :   D o   f o r e v e r : 2:\ Do \ forever: 2: Do forever::
3 :   ( a ) S ← 3:\ \qquad (a) S \leftarrow 3: (a)S current (nonterminal) state
4 :   ( b ) A ← p o l i c y 4:\ \qquad (b) A \leftarrow policy 4: (b)Apolicy(S,Q)
5 :   ( c ) E x e c u t e 5:\ \qquad (c) Execute 5: (c)Execute action A A A; observe resultant reward, R R R, and state, S ′ S' S
6 :   ( d ) M o d e l ( S , A ) ← R , S ′ 6:\ \qquad (d) Model(S,A) \leftarrow R,S' 6: (d)Model(S,A)R,S
7 :   ( e ) P ← ∣ R + γ m a x a Q ( S ′ , a ) − Q ( S , A ) ∣ . 7:\ \qquad (e) P \leftarrow |R + \gamma max_a Q(S',a) - Q(S,A)|. 7: (e)PR+γmaxaQ(S,a)Q(S,A).
8 :   ( f ) i f   P > θ ,   t h e n 8:\ \qquad (f) if \ P > \theta, \ then 8: (f)if P>θ, then insert S , A S,A S,A into PQueue with priority P P P
9 :   ( g ) R e p e a t   n 9:\ \qquad (g) Repeat \ n 9: (g)Repeat n times, while PQueue is not empty:
10 : S , A ← 10:\qquad \qquad S,A \leftarrow 10:S,A from P Q u e u e PQueue PQueue with top priority
11 : R , S ′ ← M o d e l ( S , A ) 11: \qquad \qquad R,S' \leftarrow Model(S,A) 11:R,SModel(S,A)
12 : Q ( S , A ) ← Q ( S , A ) + α [ R + γ m a x a Q ( S ′ , a ) − Q ( S , A ) ] 12: \qquad \qquad Q(S,A) \leftarrow Q(S,A) + \alpha[R+\gamma max_a Q(S',a)-Q(S,A)] 12:Q(S,A)Q(S,A)+α[R+γmaxaQ(S,a)Q(S,A)]
13 : R e p e a t ,   f o r   a l l   S ‾ , A ‾ 13: \qquad \qquad Repeat, \ for \ all \ \overline{S},\overline{A} 13:Repeat, for all S,A predicted to lead S:
14 : R ‾ ← 14: \qquad \qquad \qquad \overline{R} \leftarrow 14:R predicted reward for S ‾ \overline{S} S, A ‾ \overline{A} A, S S S
15 : P ← ∣ R ‾ + γ m a x a Q ( S , a ) − Q ( S ‾ , A ‾ ) ∣ . 15: \qquad \qquad \qquad P \leftarrow |\overline{R} + \gamma max_a Q(S,a) - Q(\overline{S}, \overline{A})|. 15:PR+γmaxaQ(S,a)Q(S,A).
16 : i f   P > θ   t h e n 16: \qquad \qquad \qquad if \ P > \theta \ then 16:if P>θ then insert S ‾ \overline{S} S, A ‾ \overline{A} A into P Q u e u e PQueue PQueue with priority P P P

Trajectory Sampling

动态规划中不计算所有的节点,而是选择重要的进行更新。

Heuristic Search

在选择action时,通过一定深度的搜索得到最好的路径。这种方法在Model准确但是Q不准确的条件下可用。
在这里插入图片描述

Rollout Algorithms

As explained by Tesauro and Galperin (1997), who experimented with rollout algorithms for playing backgammon, the term rollout “comes from estimating the value of a backgammon position by playing out, i.e., rolling out,” the position many times to the game’s end with randomly generated sequences of dice rolls, where the moves of both players are made by some xed policy.

Rollout算法是决策时规划算法,它基于Monte Carlo Control(Model-Free Control里有一个小节的介绍),应用于从当前环境状态中采样迹(trajectories)。通过在大量从任何一个可能的动作上开始然后遵循策略的模拟迹上取平均来评估一个给定策略的动作价值。当动作-价值估计被认为是足够准确的时候,最高估计值的动作(或者动作集中的一个)被执行,然后在下一个状态重复该过程。

Monte Carlo Tree Search

蒙特·卡罗尔树搜索(MCTS)是一个最近的并且特别成功的决策时planning的例子。

蒙特·卡罗尔树搜索和Rollout算法类似,但是不是随机搜索而是有"指导"的搜索,目的是为了更大概率地获得更好的路径。

MCTS也是Alpha Go核心技术之一,同时不局限于棋类搜索,所有的可以进行不高效模拟的问题都可以使用这个方法。

MCTS并不是每次都从当前状态开始搜索,而是会利用以前搜索到的以当前状态为开始状态的高分路径作为候选。

MCTS可以分为如下图所示的四个步骤:
在这里插入图片描述
有三个注意点:

  • backup之后,rollout的路径不更新价值函数,只更新selection和expansion的路径
  • 上面四个步骤将按序循环执行,直到时间耗尽或者找不到新的状态
  • 并不是每次搜索都从当前节点开始,而是会服用出现过的当前节点的树结构
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值