20180610-reinforcement-learning-MDP

【转自本人个人博客 icesunsReinforcement Learning(2)——MDPs
上一篇文章强化学习——简介简单介绍了一下强化学习的相关概念。这篇博客将引入 马尔科夫决策过程(Markov Decision Processes, MDPs)对强化学习进行建模。这篇文章,将对马尔科夫决策过程以及Q-leaning进行介绍。

马尔科夫过程

定义: 若随机过程 {Xn,nT} { X n , n ∈ T } 对于任意非负正整数 nT n ∈ T 和任意的状态 i0,i1,...,inI i 0 , i 1 , . . . , i n ∈ I , 其概率满足

P{Xn+1=in+1X0=i0,X1=i1,...,Xn=in}=P{Xn+1=in+1Xn=in} P { X n + 1 = i n + 1 ∣ X 0 = i 0 , X 1 = i 1 , . . . , X n = i n } = P { X n + 1 = i n + 1 ∣ X n = i n }
则称 {Xn,nT} { X n , n ∈ T } 是马尔科夫过程。

马尔科夫过程的一大特点是 无后效性 ,当一个随机过程在给定现在状态和过去状态情况下,其未来状态的条件概率仅依赖于当前状态。在给定现在状态是,随机过程与过去状态是条件独立的。也就是说,系统的下个状态只与当前状态有关,与更早之前的状态无关,一旦知道当前状态之后,过去的状态信息就可以抛弃。

马尔科夫过程还有一个重要的元素,那就是 转移概率矩阵
Pij(n)=P{Xn+1=jXn=i} P i j ( n ) = P { X n + 1 = j ∣ X n = i } ,指的时刻 n n ,从状态i转移到状态 j j 的一步转移概率。当Pij(n)y与 n n 无关是,则称马尔科夫链{Xn,nT}是齐次的。

P=p11p21pn1p12p22pn2p1np2npnn P = [ p 11 p 12 ⋯ p 1 n p 21 p 22 ⋯ p 2 n ⋮ ⋮ ⋱ ⋮ p n 1 p n 2 ⋯ p n n ] ;其中, pij0 p i j ≥ 0 jIpij=1 ∑ j ∈ I p i j = 1
因此,定义一个马尔科夫过程,需要给出有限状态集合 xiX,iN x i ∈ X , i ∈ N 以及转移概率矩阵 P P
下图是一个马尔科夫链转移矩阵的例子。
马尔科夫链

马尔科夫决策过程

上一篇文章介绍了强化学习是一个与不断进行环境交互学习只能agent的学习过程。而MDPs正是立足于agent与环境的直接交互,只考虑离散时间,假设agent与环境的交互可分解为一系列阶段,每个阶段由“感知——决策——行动”构成。如下图:agent与环境交互
不同资料对于MDPs定义不同。在这里,我们将MDPs模型定义为一个四元组(S,A,P,R,γ)

  • S S 是一个有限集,其中每个元素 sS s ∈ S 代表一个状态
  • A A 是一个有限集,其中每个元素 aA a ∈ A 代表一个行动
  • P P 代表状态之间的转移矩阵, Pass=P[St+1=sSt=s,At=a] P s s ′ a = P [ S t + 1 = s ′ ∣ S t = s , A t = a ]
  • R R 是reward函数, Ras=E[Rt+1St=s,At=a] R s a = E [ R t + 1 ∣ S t = s , A t = a ]
  • γ γ 是discount系数, γ(0,1) γ ∈ ( 0 , 1 )

上述定义的是完全观察的马尔科夫决策过程,定义了environment-agent之间的关系。其实这很像是在模拟人或者动物与环境之间的交互过程。agent根据environment的状态作出决策,选择相应的行动action。行动对环境产生影响,改变环境的状态state,对于这个状态的改变,环境作出评估并给出奖励reward。

马尔科夫决策过程能够刻画强化学习,我们对我们的问题建模之后,该考虑agent与environment如何交互,agent怎么选择下一步行动。在这之前,我们需要对一下几点知识做一些了解。

策略(Policy)

策略的 定义

π(as)=P[At=aSt=s] π ( a ∣ s ) = P [ A t = a ∣ S t = s ]

策略很通俗地讲,其实就是在状态 s s 下,选择行动a的概率。强化学习的本质其实就是要去学习一个最优的策略。策略定义了agent的行为,马尔科夫决策过程策略依赖于当前的状态。

值函数(Value Function)

在介绍值函数之前,需要介绍一下reward。看上图,可以知道agent选择一个行动之后,会对环境产生影响,环境会对这个行动进行评估,量化该行动在该状态下的好坏程度,是该行为在该状态下的即刻奖励。

Gt=Rt+1+γRt+2+...=k=0γkRt+k+1 G t = R t + 1 + γ R t + 2 + . . . = ∑ k = 0 ∞ γ k R t + k + 1
Gt G t 是t时刻,到未来k个阶段的“折扣”奖励和,是一个长期的影响。其中  gamma[0,1]   g a m m a ∈ [ 0 , 1 ] ,当 γ0 γ → 0 时,agent关注与短期影响,当 γ1 γ → 1 时,agent关注与长期的影响。

这跟人和动物在做决策的时候一样,不能仅仅看到短期的利益,还应该目光长远。因此马尔科夫决策过程具有一个奖励延迟的特点。

state-value function

马尔科夫决策过程state-value function vπ(s) v π ( s ) 是从t时刻在状态s下,按照策略 π π 执行,得到reward的期望。

vπ(s)=Eπ[GtSt=s] v π ( s ) = E π [ G t ∣ S t = s ]

action-value function

马尔科夫决策过程action-value function qπ(s,a) q π ( s , a ) 是从时刻t,状态s下采取a行动,并按照策略 π π 执行决策的reward的期望。

qπ(s,a)=Eπ[GtSt=s,At=a] q π ( s , a ) = E π [ G t ∣ S t = s , A t = a ]

本次,介绍了一下马尔科夫链以及马尔科夫决策过程,以及值函数。在下篇文章中,将对Bellman方程进行介绍。并且将会引入动态规划的方法对马尔科夫决策过程进行优化。

参考资料

[1] Hexo编辑数学公式:
+ http://bennychen.me/mathjax.html
+ https://wdxtub.com/2016/03/26/latex-notation-table/

[2] 马尔科夫决策过程: https://www.cnblogs.com/jinxulin/p/3517377.html
[3] 马尔科夫链: https://www.cnblogs.com/pinard/p/6632399.html

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
智慧农业是一种结合了现代信息技术,包括物联网、大数据、云计算等,对农业生产过程进行智能化管理和监控的新模式。它通过各种传感器和设备采集农业生产中的关键数据,如大气、土壤和水质参数,以及生物生长状态等,实现远程诊断和精准调控。智慧农业的核心价值在于提高农业生产效率,保障食品安全,实现资源的可持续利用,并为农业产业的转型升级提供支持。 智慧农业的实现依赖于多个子系统,包括但不限于设施蔬菜精细化种植管理系统、农业技术资料库、数据采集系统、防伪防串货系统、食品安全与质量追溯系统、应急追溯系统、灾情疫情防控系统、农业工作管理系统、远程诊断系统、监控中心、环境监测系统、智能环境控制系统等。这些系统共同构成了一个综合的信息管理和服务平台,使得农业生产者能够基于数据做出更加科学的决策。 数据采集是智慧农业的基础。通过手工录入、传感器自动采集、移动端录入、条码/RFID扫描录入、拍照录入以及GPS和遥感技术等多种方式,智慧农业系统能够全面收集农业生产过程中的各种数据。这些数据不仅包括环境参数,还涵盖了生长状态、加工保存、检验检疫等环节,为农业生产提供了全面的数据支持。 智慧农业的应用前景广阔,它不仅能够提升农业生产的管理水平,还能够通过各种应用系统,如库房管理、无公害监控、物资管理、成本控制等,为农业生产者提供全面的服务。此外,智慧农业还能够支持政府监管,通过发病报告、投入品报告、死亡报告等,加强农业产品的安全管理和质量控制。 面对智慧农业的建设和发展,存在一些挑战,如投资成本高、生产过程标准化难度大、数据采集和监测的技术难题等。为了克服这些挑战,需要政府、企业和相关机构的共同努力,通过政策支持、技术创新和教育培训等手段,推动智慧农业的健康发展。智慧农业的建设需要明确建设目的,选择合适的系统模块,并制定合理的设备布署方案,以实现农业生产的智能化、精准化和高效化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值