强化学习-赵世钰(二)-PPT:贝尔曼公式/Bellman Equation【用于计算State Value(用来评价一个策略的优劣)】、Action Value【用来评价action优劣】

一、State Value

State values:the mean of all possible returns that can be obtained starting from a state.

 

 

二、Bellman Equation【贝尔曼公式】

贝尔曼公式/Bellman Equation:

  • 描述了不同状态的stat value之间的关系;
  • 用于计算State Value【v_π(s)】,利用v_π(s)来评价一个策略/Policy的优劣

 

1、推导Bellman Equation【贝尔曼公式】

注意事项:

  • 贝尔曼公式不是一个,而是一系列的公式。状态空间S中的每一个s都有一个这种对应的公式。如果S中有n个s,则有n个这种公式,通过这n个公式联合求解就可以解出每一个s的state value,即v_π(s);
  • 贝尔曼公式描述了不同状态的state value之间的关系,即:v_π(s)与v_π(s')之间的关系;

2、举例

2.1 例一

2.2、例2

3、Bellman Equation/贝尔曼公式的矩阵与向量形式

4、Bellman Equation/贝尔曼公式计算state values【v_π(s)】

policy evaluation:给定一个policy,列出该policy的贝尔曼公式,根据贝尔曼公式求解得出state values。

  • 通过评价一个policy的优劣,才能去优化policy;

当k趋向于无穷大时,v_k收敛到v_π。v_π就是真实的state value。证明如下:

4.1、例1【比较好的策略(policy)】

靠近target的state的state value都比较大。

离target越远的state的state value越小。

4.1、例2【比较差的策略(Policy)】

三、Action Value

Action Value:用于比较在某一个state所采取的各个action的优劣。

 

Action value案例

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值