百度飞桨强化学习(1)

基础

  • 高等数学
  • 线性代数(向量空间的变换思想)
  • 概率与数理统计(期望,方差)
  • Python:numpy
  • 神经网络

强化学习

在这里插入图片描述
RL主要分为两部分:

  • agent智能体
  • environment环境

通过这两部分的交互产生经验,主要有三要素:

  • state状态
  • action动作
  • reward奖励

智能体根据环境state来执行动作,并且根据环境的反馈得到reward来指导更好的动作。

两种学习方法

  • 基于价值
  • 基于策略

在这里插入图片描述
基于价值的方法,当训练到一定程度,价值基本固定,输出的动作只会走到价值高的地方输出是固定的。
基于策略因为是输出的动作的概率,每次都要机会选择左右动作,因此最后的动作不是唯一固定的。

算法分类

在这里插入图片描述

乌龟环境

首先本地下载PARL:

git clone git@github.com:PaddlePaddle/PARL.git

用pycharm打开PARL的工程
在这里插入图片描述
进到第一节课的文件下:

cd D:\py_code\PARL\examples\tutorials\lesson1

在pycharm的终端输入python进入交互式编程:

python

然后在终端输入下面命令:

import gym
from gridworld import CliffWalkingWapper

env = gym.make("CliffWalking-v0") #创建悬崖环境
env = CliffWalkingWapper(env) #产生可视化界面
env.reset() #初始化
env.render()

在这里插入图片描述
乌龟通过0123上下左右的移动:

env.step(0)
env.render()

在这里插入图片描述
完整的乌龟探索走到终点的代码:

import gym
from gridworld import CliffWalkingWapper
import numpy as np

env = gym.make("CliffWalking-v0") #创建悬崖环境
env = CliffWalkingWapper(env) #产生可视化界面
obs = env.reset() #初始化
while True:
    action = np.random.randint(0,4)
    obs,reward,done,info = env.step(action)
    env.render()
    if done:
        break
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

只会git clone的程序员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值