【RL】--马尔可夫决策

核心思想
St+1的状态,只由再St时刻采取的行动有关,与历史时刻无关。
即:未来只与现在有关,与过去无关。

马尔可夫过程
在这里插入图片描述
马尔可夫链
对上述一系列的马尔可夫过程进行组合,就可以形成马尔可夫链。
S1、S2、S3、…Sn

马尔可夫决策过程(Markov Decision Process(MDPs))
在这里插入图片描述
在这里插入图片描述
value function
value function可以分为状态价值函数v(s)和动作价值函数q(s,a):
在这里插入图片描述
这一点用在了改进的DQN算法Dueling DQN上面。
具体可以看:
https://blog.csdn.net/xgyyxs/article/details/103300045

如何得到最优策略

上面介绍了关于马尔可夫的基础介绍,下面讲一下怎么得到最优策略

因为马尔可夫策略是基于价值的,找到最优策略也就是找到每一步最大的价值函数
最大价值函数可以分为四种情况,分别是:

  • 从action到state
  • 从state 到action
  • 从action到action
  • 从state 到state

下面介绍一下这四种情况的价值函数怎么计算:
在这里插入图片描述
上图中的下面两种情况为上面两种情况的组合。

参考文献:

https://blog.csdn.net/LagrangeSK/article/details/81028260

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值