时序差分算法:Sarsa&Qlearning

一、 时序差分法

通过学习后继状态s’的值函数来逼近当前状态值函数,实现对不完整轨迹的学习(因为仅估计后继状态s’)。
V ( s t ) = V ( s t ) + α ( R t + 1 + γ V ( s t + 1 ) − V ( s t ) ) V\left(s_{t}\right)=V\left(s_{t}\right)+\alpha\left(R_{t+1}+\gamma V\left(s_{t+1}\right)-V\left(s_{t}\right)\right) V(st)=V(st)+α(Rt+1+γV(st+1)V(st))
和MC相似,但MC的全局历史轨迹均值回报G用下式代替:
R t + 1 + γ V ( s t + 1 ) R_{t+1}+\gamma V\left(s_{t+1}\right) Rt+1+γV(st+1)

二、 Sarsa

在线策略:行为策略(一般为epsilon-greedy)和目标策略(一般为epsilon-greedy)相同。
Q ( s t , a t ) = Q ( s t , a t ) + α ( R t + 1 + γ Q ( s t + 1 , a t + 1 ) − Q ( s t , a t ) ) Q\left(s_{t}, a_{t}\right)=Q\left(s_{t}, a_{t}\right)+\alpha\left(R_{t+1}+\gamma Q\left(s_{t+1}, a_{t+1}\right)-Q\left(s_{t}, a_{t}\right)\right) Q(st,at)=Q(st,at)+α(Rt+1+γQ(st+1,at+1)Q(st,at))
过程:智能体根据行为策略P(a|s)服从 epsilon-greedy方法选择动作a,环境根据动作a给出状态跳转至s’,并给出立即回报Rt+1,智能体根据新的s‘根据策略P(a|s)服从 epsilon-greedy得出动作at+1,按照策略改进公式更新值函数。学习完后,智能体根据值函数表去索引最大值函数对应的行为作为最优策略。

三、 Q-learning

离线策略:行为策略(一般为epsilon-greedy)和目标策略(一般为greedy)不相同。
Q ( s t , a t ) = Q ( s t , a t ) + α ( R t + 1 + γ max ⁡ Q ( s t + 1 , a t + 1 ) − Q ( s t a t ) ) Q\left(s_{t}, a_{t}\right)=Q\left(s_{t}, a_{t}\right)+\alpha\left(R_{t+1}+\gamma \max Q\left(s_{t+1}, a_{t+1}\right)-Q\left(s_{t} a_{t}\right)\right) Q(st,at)=Q(st,at)+α(Rt+1+γmaxQ(st+1,at+1)Q(stat))
过程:智能体根据行为策略P1(a|s)服从 epsilon-greedy方法从值函数表中选择动作a,环境根据动作a给出状态跳转至s’,并给出立即回报Rt+1,智能体根据新的s‘根据目标策略P2(a|s)服从greedy得出动作at+1,按照策略改进公式更新值函数。学习完后,智能体根据值函数表去索引最大值函数对应的行为作为最优策略。
注1:Q-learning是离线策略,但不同于离线MC需要进行重要性采样,所以Q-learning是RL进程中的一个重要离线算法。
注2:不管是Q-learning还是Saras,至始至终,都只有一个值函数表被优化,只不过优化值函数的策略和得出轨迹的策略是不是同一个策略,决定了他们是离线还是在线。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Q-learningSARSA都属于时序差分强化学习方法,而不是蒙特卡洛强化学习方法。 时序差分强化学习是一种结合了动态规划和蒙特卡洛方法的强化学习方法。它通过使用经验数据进行增量式的更新,同时利用了当前和未来的估计值来逼近最优值函数。 具体来说,Q-learningSARSA都是基于Q值函数时序差分强化学习算法。 1. Q-learning:Q-learning是一种基于动态规划的无模型强化学习算法。它使用了时序差分(TD)方法,通过不断迭代更新Q值函数的估计值,使其逼近最优的Q值。Q-learning算法通过将当前状态和动作的估计值与下一个状态和动作的最大估计值相结合,来更新Q值函数的估计值。 2. SARSASARSA是一种基于时序差分强化学习算法,也是一种模型-free的强化学习算法SARSA算法使用了时序差分的方法,通过不断迭代更新Q值函数的估计值。与Q-learning不同的是,SARSA算法采用了一个策略(Policy)来决定下一个动作,并在更新Q值时使用下一个动作的估计值。 时序差分强化学习方法与蒙特卡洛强化学习方法相比,具有更高的效率和更好的适应性。它可以在每个时间步骤中进行更新,不需要等到任务结束后才进行更新,从而更快地收敛到最优策略。而蒙特卡洛强化学习方法则需要等到任务结束后才能获取完整的回报信息,进行全局更新。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值