[RL](百度强化学习7日打卡营学习笔记)

@RL

强化学习7日打卡营学习

强烈推荐本训练营,对新手很友好,项目能很快上手,无成本有免费计算资源提供,学习笔记慢慢整理中。
课程链接:https://aistudio.baidu.com/aistudio/education/group/info/1335

预习资料

数学基础-矩阵Python numpy库 ,详细资料(开营后这部分内容不做讲解,用到哪里大家查哪里):https://www.paddlepaddle.org.cn/tutorials/projectdetail/485153

机器学习、深度学习相关理论,预习内容(希望大家每日及时预习相关内容,开营后不做基础讲解,直奔强化学习主题):
https://www.paddlepaddle.org.cn/tutorials/projectdetail/544657

安装PaddlePaddle,跑通线性回归问题:https://www.paddlepaddle.org.cn/documentation/docs/zh/1.6/beginners_guide/quick_start_cn.html

线性回归模型预测波士顿房价:
https://www.paddlepaddle.org.cn/documentation/docs/zh/1.6/beginners_guide/basics/fit_a_line/README.cn.html#id6

大纲

一、强化学习(RL)初印象

RL 概述、入门路线

实践:环境搭建

课后作业:搭建GYM环境+PARL环境,把QuickStart 跑起来

二、基于表格型方法求解RL

MDP、状态价值、Q表格

实践: Sarsa、Q-learning代码解析,解决悬崖问题及其对比

课后作业:使用Q-learning和Sarsa解决16宫格迷宫问题。

三、基于神经网络方法求解RL

函数逼近方法

实践:DQN代码解析,解决CartPole问题

课后作业:使用DQN解决 MountianCar问题

四、基于策略梯度求解RL

策略近似、策略梯度

实践:Policy Gradient算法理解、代码解析,解决CartPole问题

课后作业:使用Policy Gradient解决Atari的Pong问题

五、连续动作空间上求解RL

连续动作空间、DDPG算法介绍

PARL DDPG代码解析

大作业题目

RLSchool 飞行器仿真环境介绍

参考资料
《Reinforcement Learning:An Introduction》

伯克利2018 Deep RL课程:http://rail.eecs.berkeley.edu/deeprlcourse/

强化学习库 PARL:https://github.com/PaddlePaddle/PARL

Sarsa&Q-learning

在这里插入图片描述
在这里插入图片描述

DQN

在这里插入图片描述
在这里插入图片描述

Policy Gradient

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值