强化学习。

本文介绍了强化学习的基本特征,包括无监督学习、延迟奖励和序列数据。强调了智能体与环境的互动,以及状态、奖励在强化学习中的作用。讨论了马尔科夫决策过程(MDP)及其组成部分,如马尔科夫性、奖励函数、折扣因子,以及值函数和最优策略的概念。
摘要由CSDN通过智能技术生成


一、强化学习简介

1.强化学习的特征

强化学习与其它机器学习范式有什么不同呢?

1)没有监督,仅仅只有一个奖励信号,或者说,不直接判定某个状态或动作的好坏,而是给出一个奖励;

2)没有即时的反馈,或者说,反馈是有延迟的。比如围棋,我们当前的落子并不会直接被赋予奖励,而是整盘棋下完之后才有一个反馈(+1表示赢,-1表示输);

3)数据是序列化的,数据与数据之间是有关的,而不是i.i.d的;

4)智能体的行为将影响后续的数据,比如在围棋中,我们当前的落子将会影响棋局的走向。

2.奖励

关于奖励的具体定义就不详述了,不过需要注意奖励(reward)和回报(return)是不一样的,回报是累积奖励。

所有的目标都能够被表述为期望累积奖励的最大化。

All goals can be described by the maximisation of expected cumulative reward.

3.智能体与环境

在这里插入图片描述
这里值得注意的是,t是在env. step中进行增量操作的。比方说,我们的智能体处在时间步t,此时执行了某个动作a,环境在受到该动作影响之后,产生奖励r,因为奖励的给出是需要时间的,因此该奖励时间步为t+1。

4.状态

history和state是不一样的,所谓history,指的是由observations、actions、rewards所组成的序列,而state则是history的函数,具体如下:

1)history:
在这里插入图片描述
2)state:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值