7.1 n-step TD Prediction
输入:策略 : π \pi π
算法参数:步长 α ∈ ( 0 , 1 ] \alpha \in (0,1] α∈(0,1],正整数 n n n
对 s ∈ S s \in \mathcal{S} s∈S,任意初始化 V ( s ) V(s) V(s)
所有存储和访问操作(对于 S t S_t St 和 R t R_t Rt)都可以使其索引 m o d n + 1 mod n + 1 modn+1
对每个回合循环:
初始化并存储 S 0 ≠ S_0 \ne S0̸= 终点
T ← ∞ T \leftarrow \infty T←∞
对 t = 0 , 1 , 2 , … t=0,1,2, \ldots t=0,1,2,… 循环:
如果 t < T t < T t<T,则:
根据 π ( ⋅ ∣ S t ) \pi(\cdot|S_t) π(⋅∣St) 采取行动
观察并将下一个奖励存储为 R t + 1 R_{t+1} Rt+1,将下一个状态存储为 S t + 1 S_{t+1} St+1
如果 S t + 1 S_{t+1} St+1 是终点,则 T ← t + 1 T \leftarrow t+1 T←t+1
τ ← t − n + 1 \tau \leftarrow t - n + 1 τ←t−n+1 ( τ \tau τ 是状态估计正在更新的时间)
如果 τ ≥ 0 \tau \geq 0 τ≥0:
G ← ∑ i = τ + 1 min ( τ + n , T ) γ i − τ − 1 R i G \leftarrow \sum_{i=\tau+1}^{\min (\tau+n, T)} \gamma^{i-\tau-1} R_{i} G←∑i=τ+1min(τ+n,T)γi−τ−1Ri
如果 τ + n < T \tau + n < T τ+n<T, 则 G ← G + γ n V ( S τ + n ) G \leftarrow G+\gamma^{n} V\left(S_{\tau+n}\right) G←G+γnV(Sτ+n)
V ( S τ ) ← V ( S τ ) + α [ G − V ( S τ ) ] V\left(S_{\tau}\right) \leftarrow V\left(S_{\tau}\right)+\alpha\left[G-V\left(S_{\tau}\right)\right] V(Sτ)←V(Sτ)+α[G−V(Sτ)] \quad\quad\quad ( G τ : τ + n ) \left(G_{\tau : \tau+n}\right) (Gτ:τ+n)
直到 τ = T − 1 \tau = T - 1 τ=T−1
7.2 n-step Sarsa
对所有 s ∈ ( S ) s\in\mathcal(S) s∈(S), a ∈ ( A ) a\in\mathcal(A) a∈(A),任意初始化 Q ( s , a ) Q(s,a) Q(s,a)
初始化 π \pi π 关于 Q Q Q 或固定的给定策略为 ε \varepsilon ε -贪婪
算法参数:步长 α ∈ ( 0 , 1 ] \alpha \in (0,1] α∈(0,1],小 ε > 0 \varepsilon > 0 ε>0,正整数 n n n
所有存储和访问操作(对于 S t S_t St, A t A_t At 和 R t R_t Rt)都可以使其索引 m o d n + 1 mod n + 1 modn+1
对每个回合循环:
初始化并存储 S 0 ≠ S_0 \ne S0̸= 终点
选择并存储动作 A 0 ∼ π ( ⋅ ∣ S 0 ) A_{0} \sim \pi\left(\cdot | S_{0}\right) A0∼π(⋅∣S0)
T ← ∞ T \leftarrow \infty T←∞
对 t = 0 , 1 , 2 , … t=0,1,2, \ldots t=0,1,2,… 循环:
如果 t < T t < T t<T,则:
采取行动 A t A_t At
观察并将下一个奖励存储为 R t + 1 R_{t+1} Rt+1,将下一个状态存储为 S t + 1 S_{t+1} St+1
如果 S t + 1 S_{t+1} St+1 是终点,则 T ← t + 1 T \leftarrow t+1 T←t+1
否则:
选择并存储动作 A t + 1 ∼ π ( ⋅ ∣ S t = 1 ) A_{t+1} \sim \pi\left(\cdot | S_{t=1}\right) At+1∼π(⋅∣St=1)
τ ← t − n + 1 \tau \leftarrow t - n + 1 τ←t−n+1 ( τ \tau τ 是状态估计正在更新的时间)
如果 τ ≥ 0 \tau \geq 0 τ≥0:
G ← ∑ i = τ + 1 min ( τ + n , T ) γ i − τ − 1 R i G \leftarrow \sum_{i=\tau+1}^{\min (\tau+n, T)} \gamma^{i-\tau-1} R_{i} G←∑i=τ+1min(τ+n,T)γi−τ−1Ri
如果 τ + n < T \tau + n < T τ+n<T, 则 G ← G + γ n Q ( S τ + n , A τ + n ) G \leftarrow G+\gamma^{n} Q\left(S_{\tau+n}, A_{\tau+n}\right) G←G+γnQ(Sτ+n,Aτ+n) \quad\quad\quad ( G τ : τ + n ) \left(G_{\tau : \tau+n}\right) (Gτ:τ+n)
Q ( S τ , A τ ) ← Q ( S τ , A τ ) + α [ G − Q ( S τ , A τ ) ] Q\left(S_{\tau}, A_{\tau}\right) \leftarrow Q\left(S_{\tau}, A_{\tau}\right)+\alpha\left[G-Q\left(S_{\tau}, A_{\tau}\right)\right] Q(Sτ,Aτ)←Q(Sτ,Aτ)+α[G−Q(Sτ,Aτ)]
如果 π \pi π 正在被学习,那么确保 π ( ⋅ ∣ S τ ) \pi\left(\cdot | S_{\tau}\right) π(⋅∣Sτ) 是关于 Q Q Q ε \varepsilon ε -贪婪
直到 τ = T − 1 \tau = T - 1 τ=T−1
7.3 n-step Off-policy Learning by Importance Sampling
输入:对所有 s ∈ ( S ) s\in\mathcal(S) s∈(S),一个任意的行为策略 b b b 使得 b ( a ∣ s ) > 0 b(a | s)>0 b(a∣s)>0
对所有 s ∈ ( S ) s\in\mathcal(S) s∈(S), a ∈ ( A ) a\in\mathcal(A) a∈(A),任意初始化 Q ( s , a ) Q(s,a) Q(s,a)
初始化 π \pi π 关于 Q Q Q 或固定的给定策略为贪婪
算法参数:步长 α ∈ ( 0 , 1 ] \alpha \in (0,1] α∈(0,1],正整数 n n n
所有存储和访问操作(对于 S t S_t St, A t A_t At 和 R t R_t Rt)都可以使其索引 m o d n + 1 mod n + 1 modn+1
对每个回合循环:
初始化并存储 S 0 ≠ S_0 \ne S0̸= 终点
选择并存储动作 A 0 ∼ π ( ⋅ ∣ S 0 ) A_{0} \sim \pi\left(\cdot | S_{0}\right) A0∼π(⋅∣S0)
T ← ∞ T \leftarrow \infty T←∞
对 t = 0 , 1 , 2 , … t=0,1,2, \ldots t=0,1,2,… 循环:
如果 t < T t < T t<T,则:
采取行动 A t A_t At
观察并将下一个奖励存储为 R t + 1 R_{t+1} Rt+1,将下一个状态存储为 S t + 1 S_{t+1} St+1
如果 S t + 1 S_{t+1} St+1 是终点,则
T ← t + 1 T \leftarrow t+1 T←t+1
否则:
选择并存储动作 A t + 1 ∼ π ( ⋅ ∣ S t = 1 ) A_{t+1} \sim \pi\left(\cdot | S_{t=1}\right) At+1∼π(⋅∣St=1)
τ ← t − n + 1 \tau \leftarrow t - n + 1 τ←t−n+1 ( τ \tau τ 是状态估计正在更新的时间)
如果 τ ≥ 0 \tau \geq 0 τ≥0:
ρ ← ∏ i = τ + 1 min ( τ + n − 1 , T − 1 ) π ( A i ∣ S i ) b ( A i ∣ S i ) \rho \leftarrow \prod_{i=\tau+1}^{\min (\tau+n-1, T-1)} \frac{\pi\left(A_{i} | S_{i}\right)}{b\left(A_{i} | S_{i}\right)} ρ←∏i=τ+1min(τ+n−1,T−1)b(Ai∣Si)π(Ai∣Si) \quad\quad\quad ( ρ τ + 1 : t + n − 1 ) \left(\rho_{\tau}+1 : t+n-1\right) (ρτ+1:t+n−1)
G ← ∑ i = τ + 1 min ( τ + n , T ) γ i − τ − 1 R i G \leftarrow \sum_{i=\tau+1}^{\min (\tau+n, T)} \gamma^{i-\tau-1} R_{i} G←∑i=τ+1min(τ+n,T)γi−τ−1Ri
如果 τ + n < T \tau + n < T τ+n<T, 则 G ← G + γ n Q ( S τ + n , A τ + n ) G \leftarrow G+\gamma^{n} Q\left(S_{\tau+n}, A_{\tau+n}\right) G←G+γnQ(Sτ+n,Aτ+n) \quad\quad\quad ( G τ : τ + n ) \left(G_{\tau : \tau+n}\right) (Gτ:τ+n)
Q ( S τ , A τ ) ← Q ( S τ , A τ ) + α ρ [ G − Q ( S τ , A τ ) ] Q\left(S_{\tau}, A_{\tau}\right) \leftarrow Q\left(S_{\tau}, A_{\tau}\right)+\alpha \rho\left[G-Q\left(S_{\tau}, A_{\tau}\right)\right] Q(Sτ,Aτ)←Q(Sτ,Aτ)+αρ[G−Q(Sτ,Aτ)]
如果 π \pi π 正在被学习,那么确保 π ( ⋅ ∣ S τ ) \pi\left(\cdot | S_{\tau}\right) π(⋅∣Sτ) 是关于 Q Q Q 贪婪
直到 τ = T − 1 \tau = T - 1 τ=T−1