机器学习-白板推导系列笔记(三十四)-MDP

此文章主要是结合哔站shuhuai008大佬的白板推导视频:马尔科夫决策过程_107min

全部笔记的汇总贴:机器学习-白板推导系列笔记

一、背景介绍

Random Variable: X      Y      X ⊥ Y X\;\;Y\;\;X\bot Y XYXY
Stochastic Process: { S t } t = 1 ∞ \{S_t\}_{t=1}^\infty { St}t=1
Markov Chain/Process,具有Markov Property的随机过程: P ( S t + 1 ∣ S t , S t − 1 , ⋯   , S 1 ) = P ( S t + 1 ∣ S t ) P(S_{t+1}|S_t,S_{t-1},\cdots,S_1)=P(S_{t+1}|S_t) P(St+1St,St1,,S1)=P(St+1St)
State Space Model:(HMM,Kalman Filter,Particle Filter)Markov Chain+Observation
Markov Reward Process:Markov Chain+Reward
Markov Decision Process:Markov Chain+Reward+Action

S : s t a t e    s e t → S t A : a c t i o n    s e t , ∀ s ∈ S , A ( s ) → A t R : r e w a r d    s e t → R t , R t + 1 S:state\;set\rightarrow S_t\\A:action\;set,\forall s\in S,A(s)\rightarrow A_t\\R:reward\;set\rightarrow R_t,R_{t+1} S:statesetStA:actionset,sS,A(s)AtR:rewardsetRt,Rt+1

在这里插入图片描述

二、动态特性

Markov Chain: S S S
MRP: S , R S,R S,R
MDP: S , A ( s ) , R , P ( 动 态 特 性 ) S,A(s),R,P(动态特性) S,A(s),R,P
在这里插入图片描述
P : p ( s ′ , r ∣ s , a ) ≜ P r { S t + 1 = s ′ , R t + 1 = r ∣ S t = s , A t = a } P:p(s',r|s,a)\triangleq Pr\{S_{t+1}=s',R_{t+1}=r|S_t=s,A_t=a\} P:p(s,rs,a)Pr{ St+1=s,Rt+1=rSt=s,At=a}
状态转移函数:

P ( s ′ ∣ s , a ) ∑ r ∈ R P ( s ′ , r ∣ s , a ) P(s'|s,a)\sum_{r\in R}P(s',r|s,a) P(ss,a)rRP(s,rs,a)

三、价值函数

在这里插入图片描述
Policy: π \pi π表示

  1. 确定性策略: a ≜ π ( s ) a\triangleq \pi(s) aπ(s)
  2. 随机性策略: π ( a ∣ s ) ≜ P r { A t = a ∣ S t = s } \pi(a|s)\triangleq Pr\{A_t=a|S_t=s\} π(as)Pr{ At=aSt=s}

回报:
G t = R t + 1 + γ R t + 2 + γ 2 R t + 3 + ⋯ + γ r − 1 R T = ∑ i = 0 ∞ γ i R t + i + 1      ( T → ∞ ) γ ∈ [ 0

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值