基于DP的MDP中的值迭代和策略迭代的区别

基于DP的MDP中的值迭代和策略迭代的区别

        值迭代与策略迭代都是强化学习中的动态规划方法(DP), 它们的框架相同,都包含两个过程——策略估计和策略改进。
       不同的是策略迭代是在策略评估之后,等到值函数收敛之后再进行策略改进,而值迭代是在策略评估的时候,只要值函数改变,就直接进行策略改进。我们用伪代码比较两者的区别。
       策略迭代的收敛速度更快一些,但是要对整个状态空间进行遍历,很吃计算,所以在状态空间较小时,最好选用策略迭代方法。当状态空间较大时,选用值迭代的方法计算量更小一些。

策略迭代:
策略迭代

值迭代:
值迭代

分别用策略迭代和值迭代玩100个状态的二维迷宫游戏,得到值迭代需要14次。
图3
而策略迭代中评估需要1次,改进需要10次。
图4

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值