Sarsa

基本概念

Sarsa

Sarsa算法与Q-Learning算法极为相似,‘sarsa’五个字母的含义即s(当前状态),a(当前行为),r(奖励),s(下一步状态),a(下一步行为),也就是说我们在进行这一步操作时已经想到当前s对应的a,并且想好了下一个s’和a’。Sarsa的使用的数学模型如下:
在这里插入图片描述
Sarsa算法的伪代码如下:
在这里插入图片描述
Q-learning和Sarsa的区别:

Q-learning算法和Sarsa算法都是从状态s开始,根据当前的Q-table使用一定的策略( ϵ − g r e e d y \epsilon-greedy ϵgreedy)选择一个动作 a ′ a' a,然后观测到下一个状态 s ′ s' s,并再次根据Q-table选择动作 a ′ a' a。只不过两者选取a’的方法不同。根据算法描述,在选择新状态 s ′ s' s的动作 a ′ a' a时,Q-learning使用贪心策略( ϵ − g r e e d y \epsilon-greedy ϵgreedy​),即选取值最大的 a ′ a' a,此时只是计算出哪个 a ′ a' a可以使 m a x Q ( s ′ , a ∗ ) maxQ(s',a^*) maxQ(s,a)取到最大值,并没有真正采用这个动作 a ′ a' a;而Sarsa则是仍使用 ϵ − g r e e d y \epsilon-greedy ϵgreedy 策略,并真正采用了这个动作 a ′ a' a

Sarsa算法是一种基于Q-learning的强化学习算法,用于解决马尔可夫决策过程(MDP)中的问题。Sarsa是State-Action-Reward-State-Action的缩写,它是一种在线学习算法,能够逐步更新Q值函数来寻找最优的动作策略。 Sarsa算法的基本思想是通过不断地与环境进行交互来学习最优的行动策略。在每个时间步骤中,算法会根据当前的状态选择一个行动,并观察到下一个状态和获得的奖励。然后,它会根据这些信息来更新Q值函数,以改进行动策略。 具体来说,Sarsa算法的更新规则如下: 1. 在当前状态s,选择一个行动a,可以使用ε-greedy策略来进行行动选择,即以ε的概率选择一个随机行动,以1-ε的概率选择具有最大Q值的行动。 2. 执行行动a,观察到下一个状态s'和获得的奖励r。 3. 根据新的状态s'和选择的行动a',使用Sarsa的更新规则来更新Q值函数: Q(s, a) = Q(s, a) + α * (r + γ * Q(s', a') - Q(s, a)) 其中,α是学习率,γ是折扣因子,用于衡量当前状态与下一个状态之间的重要性。 通过不断地迭代和更新Q值函数,Sarsa算法能够逐步收敛到最优的Q值函数,从而得到最优的行动策略。 总结起来,Sarsa算法是一种基于Q-learning的在线强化学习算法,通过与环境的交互和不断的Q值函数更新来学习最优的行动策略。它适用于解决马尔可夫决策过程中的问题,并可以在各种应用领域中得到有效的应用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不负韶华ღ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值