蒙特卡洛方法求解强化学习任务——基于非试探性出发假设的蒙特卡洛控制

本文探讨了在强化学习中,如何克服蒙特卡洛控制方法中试探性出发假设的限制。该假设要求所有状态-动作对以非零概率被采样,但在实际环境中可能难以实现。为解决这一问题,提出了采用软性策略的行动策略,即在保持最优策略的同时,允许其他动作以非零概率被选择,以确保所有可能的动作都能在样本中出现。文章进一步介绍了同轨策略和离轨策略的概念,这两种方法旨在在不依赖试探性出发假设的情况下进行策略改进。
摘要由CSDN通过智能技术生成

蒙特卡洛方法求解强化学习任务——基于非试探性出发假设的蒙特卡洛控制

目录

上一节介绍了基于试探性出发假设蒙特卡洛控制,本节将针对试探性出发假设带来的问题,如何绕过该假设的严苛条件,从而达到试探所有可能发生状态-动作二元组的目标。

回顾:试探性出发假设的缺陷

蒙特卡洛方法求解强化学习任务——蒙特卡洛评估基本介绍一节中提到,试探性出发假设在蒙特卡洛方法近似求解 q π ( s , a ) q_\pi(s,a) qπ(s,a)过程中保证了状态-动作二元组被采样的情节集合中被访问到(存在非零概率将对应样本采样出来)。
但是,试探性出发假设的缺陷也是非常明显的:假设过强,对样本产生的约束性极高

  • 任意一个状态-动作二元组均以非零概率被采样
  • 被采样的状态-动作二元组作为某情节的起始点

真实环境条件下,试探性出发假设可能根本无法实现。

如何避免试探性出发假设

我们本质上的需求是任意一个状态-动作二元组能够在采样过程中以非零概率被选中,出现在样本集合内。从而实现对样本的蒙特卡洛操作(蒙特卡洛评估,控制)。

针对试探性出发假设在真实环境中不合理的情况,如何避免试探性出发假设,从而达到我们的需求?换句话说,我们希望智能体能够持续不断的选择所有可能的动作

试探性出发假设的问题

回顾一下基于试探性出发假设的蒙特卡洛控制算法

  • 根据策略 π ( s ) \pi(s) π(s),生成一条情节序列
    S 0 , A 0 , R 1 , S 1 , A 1 , R 2 , . . . , S T − 1 , A T − 1 . R T . S T S_0,A_0,R_1,S_1,A_1,R_2,...,S_{T-1},A_{T-1}.R_T.S_T S0,A0,R1,S1,A1,R2,...,ST1,AT1.RT.ST
  • 遍历该情节序列,并计算回报结果:情节序列的每一步的回报结果(Return)都是一个样本,这些样本在不同的状态-动作二元组 ( s , a ) (s,a) (s,a)中生效;
    G ← γ G + R t + 1 G \gets \gamma G + R_{t+1} GγG+Rt+1
  • 针对上述样本,使用增量更新方式对各状态-动作二元组 ( s , a ) (s,a) (s,a)状态-动作价值函数进行更新;
    Q ( S t , A t ) ← Q ( S t , A t
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

静静的喝酒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值