强化学习(一): 引入

今天开始连载强化学习,这个是以前看Reinforcement Learning: An Introduction 这本书做的笔记,最近发现Richard S. Sutton 和 Andrew G. Barto还在为本书更新,所以就想着把原来的笔记也更新一下,整理然后放在这里。
因为是笔记形式,所以这里的货是非常的干的。都是把自己认为重要的东西记了下来,当然也许会有太过骨感的意味。 但因为本次的定位不是给从不知道的人看的,而是给那些至少知道这本书的人一起交流的。

今天是引入,所以也就是几个概念。

Introduction

强化学习是学习如何最大化奖励。

强化学习一直需要面对一个问题,即是权衡exploration(开发) 与exploitation(探索)。

强化学习的一大特点是agent与不确定环境的互动。

Elements of Reinforcement Learning

Policy: 是学习agent在任何时刻的行为方式,是一个从当前环境状态到动作空间的映射。策略是强化学习的核心,强化学习可理解为如何做决策从而获得最大奖励,因此,策略即为最重要的部分,策略可以是一个简单的映射函数,也可能是一个‘状态形为’表格。另外,策略也可能是随机的形式,即在某一状态下,只给出每个形为的概率。

Reward: 强化学习的目标。在强化学习中,agent的目标就是最大化它能获得的所有reward。单个reward只是处于某一状态的即时感觉,那长远来看,即agent可能获得的所有reward,用value function来度量。

Value of a state: 是agent从当前状态算起,未来能获得的所有的reward总和。

Model of a environment: 是所有可用于推断环境如何反应的信息。

转载于:https://www.cnblogs.com/vpegasus/p/rl_introduction.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值