学习记录:
参考:
https://zhuanlan.zhihu.com/p/273449285
https://www.codetd.com/article/4361820
马尔可夫决策过程(Markov Decision Process,MDP):描述离散时间的随机控制过程,其结果是部分随机部分可控的,是在复杂环境下对AI代理(Agent)建模的经典方法。
1 马尔可夫属性
下个状态取决于当前状态(不考虑高阶马尔可夫?),不受之前任何状态影响。
2 马尔可夫过程/马尔可夫链
马尔可夫链是一个无记忆的随机过程(?)
元组(tuple)表示:<S, P>
S:有限数量的状态集,P:各状态间的转移矩阵(Transition Matrix)
S ′ S' S′:下一状态,
S S S:当前状态 [ x 11 … … x 1 n x 21 … … x 2 n ⋮ … … ⋮ x n 1 … … x n n ] \left[ \begin{matrix} x_{11}&……&x_{1n}\\ x_{21}&……&x_{2n}\\ \vdots&……&\vdots\\ x_{n1} &…… &x_ {nn}\\ \end{matrix} \right] ⎣⎢⎢⎢⎡x11x21⋮xn1……………………x1nx2n⋮xnn⎦⎥⎥⎥⎤
David Silver课程例子,学生从状态Class 1到状态Class 2的概率是0.5,对应右侧矩阵第1行第2列(C1,C2)的值0.5,学生在Facebook(FB)不能自拔,状态转移概率0.9,对应矩阵(FB,FB)位置为0.9。注意到:每一行所有数值相加等于1。
3 马尔可夫回报过程 MRP
MRP是带有价值的马尔科夫链(?),<S, P, R, Y>表示,对比马尔可夫链,R是回归函数,Y是折扣系数。
回报函数R返回一个标量(实数)。其表示:假设目前状态是 S t \mathbf{S}_t St,仅考虑下一状态 S t + 1 \mathbf{S}_{t+1} St+1能获得多少回报 R s = E [ R t + 1 ∣ S t = s ] \mathbf{R}_s = E[\mathbf{R}_{t+1}|\mathbf{S}_t=s] Rs=E[Rt+1∣St=s]。
Y∈[0, 1],Y=0表示只看眼前(?),Y=1表示当前和长远同等重要,调节Y控制对长远的重视程度。
收益:总的长期收益之和(这是人们关注点)
G t \mathbf{G}_t Gt:从t时开始,未来总折扣的回报之和,
$\mathbf{G}t = \mathbf{R}{t+1}+ \mathbf{YR}{t+2}+\mathbf{Y}2\mathbf{R}_{t+3}+……=\sum{∞}{k=0}\mathbf{Y}^k\mathbf{R}_{t+k+1} $
强化学习目标:最大化长期总收益。
价值函数: v ( s ) v(s) v(s)返回状态s的长期价值,就是 G t \mathbf{G}_t Gt的数学期望, v ( s ) = E [ G t ∣ s = S t ] v(s) = E[\mathbf{G}_t|s=\mathbf{S}_t] v(s)=E[Gt∣s=St]
4 马尔可夫决策过程 MDP
MDP是带有决策的MRP,<S, A,P, R, Y>,A为动作集。
策略:定义了从状态到动作的映射。
MDP是带有决策的MRP,<S, A,P, R, Y>,A为动作集。
策略:定义了从状态到动作的映射。