马尔科夫决策过程知识详解1

本文详细介绍了马尔科夫决策过程(MDP)的基础概念,包括马尔科夫性、马尔科夫过程和马尔科夫决策过程,并通过实例解释了MDP在强化学习中的作用。MDP是解决强化学习问题的一种框架,包括有限状态集、动作集、状态转移概率、回报函数和折扣因子。强化学习的目标是找到最优策略,使累计回报达到最大。
摘要由CSDN通过智能技术生成

本节介绍了深入浅出强化学习原理入门一书的马尔科夫决策过程一节。主要目的是整理其中知识点,以便日后复习所用。(侵删)
马尔科夫决策过程是一套可以解决大部分强化学习问题的框架,简称MDP。按照顺序分别介绍马尔科夫性,马尔科夫过程,以及马尔科夫决策过程。

一 马尔科夫性

马尔科夫性指的是系统的下一个状态S(t+1)仅与当前状态S(t)有关,与以前的状态无关。公式如下:
P[S(t+1)|S(t)] = P[S(t+1)|S(1),S(2),…,S(t)]

二 马尔科夫过程

随机过程就是随机变量序列,若随机变量序列中的每个状态都是马尔科夫的,则称其未马尔科夫随机过程。
马尔科夫过程是一个二元组(S,P),其中S是有限状态集合,P是状态转移概率。状态转移概率矩阵是:
这里写图片描述

如果S有5个状态S1,S2,S3,S4,S5,则形如

S1-S2-S5
S1-S2-S4-S5

上述状态序列未马尔科夫链。

马尔可夫过程中不存在动作和奖励,将动作和回报考虑在内的马尔可夫过程为马尔科夫决策过程。

三 马尔可夫决策过程

马尔科夫决策过程由元组(S,A,P,R,gamma)描述,其中,
S为有限状态集
A为有限动作集
P为状态转移概率
R为回报函数
gamma为计算累计回报的折扣因子。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值