UCB CS285课程笔记目录

本系列文章给自己挖坑 将会总结神课CS285强化学习课程的内容(不想完全照抄课程原始内容,还会记录一些自己在学习、复习过程中的一些心得体会,比如看reference readings),除此之外每一节还会分析github上提供的作业答案代码(2020版)。写这一系列更是想建立起关于单智能体深度强化学习的知识体系,因为所写内容均基于本人目前对DRL的认知,难免会有一些理解不到位的地方,所以这一系列也会随着自己在强化学习的学习中不断更新。

以下的目录将课程的23讲内容归了归类,有些内容没有按照课程顺序(RL理论的这几讲放到最后了)。尽力每隔一周更新一篇。

1. 模仿学习(Imitation Learning)

2. 强化学习一般方法

3.1(1) Model-Free方法—Policy Gradient

3.1(2) Model-Free方法—Actor-Critic

3.1(3) Model-Free方法—Value Based&DQN

3.2(1) Model-Based方法—Planning方法

3.2(2) Model-Based方法—Model Learning, Policy Learning

4. Exploration Method

5.(1) 从概率图角度理解强化学习(变分推断原理+VAE)

5.(2) 从概率图角度理解强化学习 (Control as Inference)

6. Inverse RL

7. Transfer Learning, Multi-task Learning, Meta-learning

8. Offline Reinforcement Learning

9. RL理论与Deep RL算法设计

10. 强化学习所面临的挑战

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值