(Udacity)强化学习框架:问题

回收机器人 MDP,high和low表示机器人的电量。

设置,重新经历

  • 强化学习 (RL) 框架包含学习与其环境互动的智能体
  • 在每个时间步,智能体都收到环境的状态环境向智能体呈现一种情况),智能体必须选择相应的响应动作。一个时间步后,智能体获得一个奖励环境表示智能体是否对该状态做出了正确的响应)和新的状态
  • 所有智能体的目标都是最大化预期累积奖励,或在所有时间步获得的预期奖励之和。

阶段性任务与连续性任务

  • 任务是一种强化学习问题。
  • 连续性任务是一直持续下去、没有结束点的任务。
  • 阶段性任务是起始点和结束点明确的任务。

               1. 在这种情况下,我们将一个完整的互动系列(从开始到结束)称为一个阶段

               2. 每当智能体抵达最终状态,阶段性任务都会结束

奖励假设

  • 奖励假设:所有目标都可以构建为最大化(预期)累积奖励。

累积奖励

  • 在时间步 t的回报是 G_{t}:=R_{t+1}+R_{t+2}+R_{t+3}+...
  • 智能体选择动作的目标是最大化预期(折扣)回报。

折扣汇报

  • 在时间步 t 的折扣回报是 G_{t}:=R_{t+1}+\gamma R_{t+2}+\gamma ^{2}R_{t+3}+...
  • 折扣回报 \gamma是你设置的值,以便进一步优化智能体的目标。

                     1. 它必须指定 0\leq \gamma \leqslant 1

                     2. 如果 \gamma = 0,智能体只关心最即时的奖励。

                     3. 如果 \gamma = 1,回报没有折扣。

                     4.  \gamma 的值越大,智能体越关心遥远的未来。\gamma的值越小,折扣程度越大,在最极端的情况下,智能体只关

                         心最即时的奖励。

MDPs和一步动态特性

  • 状态空间S是所有(非终止)状态的集合。          

                      在阶段性任务中,我们使用S^{+}表示所有状态集合,包括终止状态。

  • 动作空间A是潜在动作的集合。 (此外, A(s)是指在状态s \epsilon S的潜在动作集合。)
  • 指定奖励信号
  • 环境的一步动态特性会判断环境在每个时间步如何决定状态和奖励。可以通过指定每个潜在 \large \acute{s},r,s and \large a\large p({\acute{s}}',r|s,a) \doteq \mathbb{P}(S_{t+1}=\acute{s},R_{t+1}=r|S_{t}=s,A_{t}=a)定义动态特性。
  • 一个(有限)马尔可夫决策过程 (MDP) 由以下各项定义:

                     1. 一组(有限的)状态 \large S(对于阶段性任务,则是 \large S^{+}

                     2. 一组(有限的)动作\large A

                     3. 一组奖励\large R

                     4. 环境的一步动态特性

                      5. 折扣率\large \gamma \epsilon [0,1]

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值