强化学习4——无模型控制model-free control (On-Policy learning:Sarsa和Off-policy learning:Q-learning)

前言

本文是学习周博雷老师的强化学习课程的心得体会。
雷大佬的GItHub

无模型控制

问题

​ 当我们不知道 MDP 模型的情况下,如何优化价值函数,得到最佳的策略。

思路

​ 这里和有模型的控制策略的估计有一个不同是,我们这里使用MC方法来估算Q函数。其余的和无模型的控制是一样的。

​ 大概思路是:初始化一个Q和 π \pi π,然后不停的迭代更新Q和 π \pi π。注意这里与有模型的控制的区别是,我们直接迭代的Q而不是V,(这是因为没有模型)。

方法

On-Policy learning

​ On-Policy就是使用同一个police,在迭代中不断的更新。

MC

​ 步骤1:通过MC方法估计Q-table;

​ MC方法的精髓是采样,这里利用 ϵ − G r e e d y E x p l o r a t i o n \epsilon-Greedy Exploration ϵGreedyExploration方法进行采样,选取每一步的动作。

在这里插入图片描述

​ 步骤2:根据估计出的Q-table改善 π \pi π

具体步骤如下:

在这里插入图片描述

具体算法如下:

在这里插入图片描述

Sarsa

​ sarsa是将control loop中的MC换成TD。

在这里插入图片描述

在这里插入图片描述

Off-policy learning

​ Off-policy learning有两个policy,一个探索policy和一个目标policy,我们用探索policy进行采样计算Q,然后用算出的Q来更新目标policy。

​ 优点:

  1. 可以利用别的方面的策略更新另一个方面的策略,比如将人的运动转移到机器人身上。
  2. 可以重复利用产生过的policy,节省计算资源。
Q-learning

在这里插入图片描述
在这里插入图片描述

On-Policy learning 和 Off-policy learning的区别

On-Policy learning:

​ 始终只有一个policy,只是在迭代中不停的更新。

​ 学出的策略比较保守。

Off-policy learning:

​ 这里有一个探索policy和一个目标policy,我们用探索policy进行采样计算Q,然后用算出的Q来更新目标policy。

​ 学出的策略比较激进。

sarsa和Q-learning的区别:

在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Q-learningSARSA都属于时序差分强化学习方法,而不是蒙特卡洛强化学习方法。 时序差分强化学习是一种结合了动态规划和蒙特卡洛方法的强化学习方法。它通过使用经验数据进行增量式的更新,同时利用了当前和未来的估计值来逼近最优值函数。 具体来说,Q-learningSARSA都是基于Q值函数的时序差分强化学习算法。 1. Q-learning:Q-learning是一种基于动态规划的无模型强化学习算法。它使用了时序差分(TD)方法,通过不断迭代更新Q值函数的估计值,使其逼近最优的Q值。Q-learning算法通过将当前状态和动作的估计值与下一个状态和动作的最大估计值相结合,来更新Q值函数的估计值。 2. SARSASARSA是一种基于时序差分的强化学习算法,也是一种模型-free强化学习算法。SARSA算法使用了时序差分的方法,通过不断迭代更新Q值函数的估计值。与Q-learning不同的是,SARSA算法采用了一个策略(Policy)来决定下一个动作,并在更新Q值时使用下一个动作的估计值。 时序差分强化学习方法与蒙特卡洛强化学习方法相比,具有更高的效率和更好的适应性。它可以在每个时间步骤中进行更新,不需要等到任务结束后才进行更新,从而更快地收敛到最优策略。而蒙特卡洛强化学习方法则需要等到任务结束后才能获取完整的回报信息,进行全局更新。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值