强化学习DRL--策略、动作价值、状态价值

一、策略

1. 状态转移概率函数

在这里插入图片描述


状态的随机性来自于状态转移函数。当状态 s 和动作 a 都被确定下来,下一个状态仍然有随机性。

2.随机策略

在这里插入图片描述
**动作的随机性来自于随机决策。**

3.确定策略

在这里插入图片描述

4.价值函数

4.1 动作价值函数

  1. 折扣率
    在这里插入图片描述
  2. U t U_t Ut中的随机性来自于 t + 1 时刻起的所有的状态和动作,因此对回报 U t U_t Ut求期望,消除掉其中的随机性。
    在这里插入图片描述

在这里插入图片描述

4.2 最优动作价值函数

消除 π \pi π的影响,就是要选择最好的策略函数 π \pi π,记为 Q ∗ ( s t , a t ) : Q_*(st,at): Q(st,at):
在这里插入图片描述
其中只依赖于 s t 和 a t ,而与策略 π 无关。

4.3 状态价值函数 V π V_\pi Vπ

在这里插入图片描述

  • 衡量当前状态的胜算程度。
  • 用状态价值可以衡量策略 π 与状态 st 的好坏。

5.补充

  • 轨迹在这里插入图片描述

  • 区别回合(episodes)和epoch

    • 一个 epoch 意思是用所有训练数据进行前向计算和反向传播,而且每条数据恰好只用一次。常用于监督学习。
    • “回合”的概念来自游戏,指智能体从游戏开始到通关或者结束的过程。强化学习对样本数量的要求很高,即
      便是个简单的游戏,也需要玩上万回合游戏才能学到好的策略。
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值