离线强化学习总结!(原理、数据集、算法、复杂性分析、超参数调优等)

来源知乎,作者丨旺仔搬砖记

70fe22be9f369506a3edec286eaabb1f.png

4eec9a0e9e1ddee2b3852c7ac32ef35b.png    

由于内容过长,本文仅展示部分内容,完整系列请查阅博客:https://www.zhihu.com/column/c_1487193754071617536

离线强化学习(Offline RL)作为深度强化学习的子领域,其不需要与模拟环境进行交互就可以直接从数据中学习一套策略来完成相关任务,被认为是强化学习落地的重要技术之一。本文详细的阐述了强化学习到离线强化学习的发展过程,并就一些经典的问题进行了解释和说明。

1

深度强化学习

1.1 深度强化学习简介

强化学习发展的特别早,但一直不温不火,其中Sutton老爷子早在1998年就写了强化学习领域的圣经书籍:An Introduction : Reinforcement Learning ,但也并未开启强化学习发展的新局面。

直到2012年,深度学习广泛兴起,大规模的神经网络被成功用于解决自然语言处理,计算机视觉等领域,人工智能的各个方向才开始快速发展,强化学习领域最典型的就是2013年DeepMind公司的Volodymyr Mnih发表Playing Atari with Deep Reinforcement Learning(DQN技术),可以说开启了深度强化学习技术发展的新高潮,2015年该论文的加强版Human-level control through deep reinforcement learning 登上Nature, 以及2016年Nature上的AlphaGo: Mastering the game of Go with deep neural networks and tree search 充分证明了深度强化学习技术的发展潜力。

传统的强化学习和监督学习、非监督学的区别在于,后两者是通过从已标记(Label)和无标记的数据中学习一套规律(我们可以理解为学习一个函数表达式),而前者强化学习则是通过行为交互来学习一套策略,以最大化累计期望奖励,结构如图所示:

27552ce7ac93ac38df6f1b6b1cfeed0c.png

image-20220329103307041

其学习过程可以归纳为通过agent获取环境状态, 根据自身学习到的知识做出action反馈给环境,并得到一个奖励,不断地迭代出一个可以一直玩游戏并且不会死的智能体。原理就是从一个四元组$<s, a,="" r,="" s^{'}="">$中学习出策略,不论出发点在哪里都可以得到一个最优的轨迹(trajectory)模型(不论起点,目前测试中一般通过多个随机seed去测试),具体可以参考博主的另外篇博文深度强化学习简介.

33397a920f01e5504e30be9a67fb8baf.png

1.1.1 On-Policy和off-Policy区别

On-policy和Off-policy这两个词在强化学习领域非常重要,知乎上有很多关于其讨论强化学习中on-policy 与off-policy有什么区别?,最典型的莫过于李宏毅老师下棋形象例子解释,还可以从以下方式解释:

【补充】两者在学习方式上的区别:若agent与环境互动,则为On-policy(此时因为agent亲身参与,所以互动时的policy和目标的policy一致);若agent看别的agent与环境互动,自己不参与互动,则为Off-policy(此时因为互动的和目标优化的是两个agent,所以他们的policy不一致)。两者在采样数据利用上的区别On-policy:采样所用的policy和目标policy一致,采样后进行学习,学习后目标policy更新,此时需要把采样的policy同步更新以保持和目标policy一致,这也就导致了需要重新采样。Off-policy:采样的policy和目标的policy不一样,所以你目标的policy随便更新,采样后的数据可以用很多次也可以参考。

其实最经典的莫过于Sutton老爷子Introduction中的解释:

原文:On-policy methods attempt to evaluate or improve the policy that is used to make decisions, whereas off-policy methods evaluate or improve a policy different from that used to generate the data.

此外莫过于Q-learning和sarsa算法的解释

d1972ea44cec1db24422f7cd573bbcbf.png

最终总结一下两者的优缺点

on-policy优点是直接了当,速度快,劣势是不一定找到最优策略。off-policy劣势是曲折,收敛慢,但优势是更为强大和通用。

本文之所以解释On-policy或者off-policy的相关内容,目的在于后文讨论以下几个问题:

  • 如何从采样轨迹(trajectory)中高效学习

  • Off-policy采样效率高,收敛慢,仍然是最重要的解决问题方法

1.1.2 Online和Offline学习的本质

监督学习中通常利用已知(已标记)的数据进行学习,其本质是从数据中总结规律,这和人从学1+1=2基本原理一致,强化学习的过程也是如此,仍然是从数据中学习,只不过强化学习中学习的数据是一系列的轨迹

所以重点来了,这里的数据才是最关键的一部分,这也强化学习中Online和offline学习中的关键, Online一方面是与环境有交互,通过采集数据学习、然后丢弃,而offline则是不用交互,直接通过采集到的轨迹数据学习,这也是off-policy到offline转换的重要原因。

1.2 落地应用的困难?

目前atari, mujoco物理引擎等各类游戏中的模拟数据很轻松拿到,这也就是目前强化学习在游戏领域非常成功的原因之一,也是各种state of the art刷榜的体现,因为游戏数据可以很轻松就100million,总结起来就是

有模拟器,易产生数据,好用!

但强化学习在落地过程中就可能遇到很多问题,比如下图这个大家伙,

e688b065179cca84bee2ac2b0b057844.png

总不可能让他产生100 million数据吧(不知道他的额定寿命是多少次),因此产生如下几个问题:

  1. 由于样本收集很困难,或者很危险。所以实时的和环境进行交互是不太可能的,那么可否有一种仅利用之前收集的数据来训练的方法去学习策略呢?

  2. 不管它是on-policy还是off_policy,我只要经验回放池中的交互历史数据,往大一点就是logg数据库中的数据(此处就不能探索exploration),去拟合函数是否可行?

  3. 仅利用轨迹数据学习的策略能否和Online算法的媲美?

所以有这样的方法吗?

2e984ef63781c31574350ca9731247a9.png

答案:有,OfflineRL,此处有矿,赶紧来挖!

2.离线强化学习

离线强化学习最初英文名为:Batch Reinforcement Learning [3], 后来Sergey Levine等人在其2020年的综述中使用了Offline Reinforcement Learning(Offline RL), 现在普遍使用后者表示。下图是离线强化学习近年来论文的发表情况,间接反应发展状态。

378e7bc29629a427c795e4ced0a4f626.png

2.1 离线强化学习原理

Offline RL 可以被定义为 data-driven 形式的强化学习问题,即在智能体(policy函数?)不和环境交互的情况下,来从获取的轨迹中学习经验知识,达到使目标最大化,其和Online的区别如图所示:

3f8914fdbc852a8ef764e516ef922823.gif

图片来源自:Offline Reinforcement Learning

后来Sergey在论文中归纳如下图所示:

84deaf891131ba3f684bc3b249ec834d.png

本质上,智能体是通过静态的数据集 $<s_{t}^{i},a_{t}^{i},s_{t+1}^{i},r_{t}^{i}>

去对进行充分的理解,并构造一个策略\pi(a|s)在实际交互中获得最多的累计奖励本文用\pi_{\beta}表示数据集D中的状态和动作分布,且s,a \in D,s \sim d^{\pi_{\beta}}(s),而动作a\sim \pi_{\beta}(a|s)是根据行为策略采样而来那么最终的学习目标标成了最大化J(\pi)$</s_{t}^{i},a_{t}^{i},s_{t+1}^{i},r_{t}^{i}>

2.2 离线强化学习分类及区别

2.2.1 如何判断 Offline RL

5a2dbf5d084c5b3dea918002f4bbf46e.png

图中很明确的从数据可否store以及reused解释了是纯Online还是offline, 以及使用经验回放的NFQ等,其本质还是是否利用trajectory去学习优化模型。

备注:离线强化学习去学习数据可以使专家数据、预训练(Pre-Train)模型产生的数据、随机(random)数据等。

2.2.2 offline RL的分类

3fd73faa9eb85ec8c3ce4ed0027b1fbb.png

2.2.3 Offline RL&模仿学习的区别

模仿学习(Imitation Learning, IL) 是指通过从专家(通常指人类的决策数据 )提供的范例中学习,,每个决策包含状态和动作序列 $\tau_{i}=,将所有「状态动作对」抽取出来构造新的集合\mathcal{D}=\left\{\left(s_{1}, a_{1}\right),\left(s_{2}, a_{2}\right),\left(s_{3}, a_{3}\right), \ldots\right\}$。之后就可以把状态作为特征,动作作为标记进行离散动作/连续动作的学习而得到最优的策略模型,模型的训练目标是使模型生成的状态-动作轨迹分布输入的轨迹分布相匹配,最典型的就是自动驾驶的例子(此过程中一般称为行为克隆behavior clone)。

270c0a7ca816f98009c7ef74e056fec0.png

可能有人会问,模仿学习不也是从专家数据中学习一套策略吗?它和offline RL不就是一回事了?其实它们与息息相关,但有几个关键的区别:

  • Offline RL 算法(到目前为止)建立在标准的off-policy深度强化学习算法之上,这些算法倾向于优化某种形式的贝尔曼方程或TD误差。

  • 大多数 IL 问题假设有一个最优的,或者至少是一个高性能的提供数据的演示器,而Offline RL 可能必须处理高度次优(subopt)的数据。

  • 大多数 IL 问题没有奖励函数。Offline RL 有奖励,而且可以事后处理和修改。

  • 一些 IL 问题需要将数据标记为专家与非专家。Offline RL 不做这个假设(可以是专家、已训练好的模型产生的轨迹,随机数据)。

另外一方面在数据组成方面有如下区别:

2.3 离线强化学习很难学习的原因

2.3.1 无法探索(Explore)

强化学习在与环境中交互学习的过程中,最关键的一个问题便是“Exploration vs Exploitation Dilemma”, Exploration是为了收集更多信息(尝试一些不可能等),而Exploitation则根据当前信息做出最佳决策,正如Sliver总结的:

fca08a57f55808bbdf41d3853f084105.png

这两者可以说对一个算法的训练精度、速度等各方面有重要影响,而Offline RL算法中需要完全的依赖于静态数据集 ,但是没有办法提高exploration,因为不和环境进行交互,就无法知道探索得到的数据是否有效,是否有高质量的奖励反馈等,所以 Offline RL不可能通过探索发现高奖励的区域。而且,并没有办法解决此问题,这就变成了2.3.2中的经验最小化的问题了

89a9ae99f2dfbeb2c1c08377c2ff1064.png

2.3.2 数据质量(拟合与过拟合)

深度学习的成功可以归结为数据集(ImageNet等)的准确强大,offline RL也不例外,思考以下问题:

  • 如果轨迹(数据)全部是专家数据,Offline RL算法会学习到好策略吗?

  • 如果轨迹全是预训练好的模型(比如训练好的PPO模型)产生的,Offline RL算法会学习到好策略吗?

  • 如果轨迹全是没有任何经验,而是随机产生的,Offline RL算法会学习到好策略吗?

  • 如果轨迹是上述三种的混合,具体的比例多少才能训练出通用、高效的offline RL算法?

这个问题其实Fujimoto在2019年的时候就提到了(如图所示),但直到现在仍然对Offline RL算法的训练非常大的影响。

617f8cfb0d641f49389b62ca94c6b712.png

备注:Final buffer: train a DDPG agent for 1 million time steps, adding N (0, 0.5) Gaussian noise to actions for high exploration, and store all experienced transitions.Concurrent:train the off-policy and behavioral DDPG agents, for 1 million time steps. To ensure sufficient exploration, a standard N (0, 0.1) Gaussian noise is added to actions taken by the behavioral policy.

2.3.3 分布偏移(Distribution shift)

2.3.3.1 关于分布偏移

分布偏移(Distribution shift) 在监督学习中一般指的是训练分布与测试分布不同,在离线强化学习中指的是训练策略与行为策略不一致。(Distribution shifts, in which the training distribution differs from the testing distribution, training policy are inconsist:ent with behavioral policy in offline reinforcement learning.),下面我们进行解释

在监督学习中,训练一个模型通常追求经验风险最小化(Empirical Risk Minimization,ERM),即:

402 Payment Required

bc04ac0488a65222b69ae5057174c49c.png也就是让图中的左子图的平均损失函数最小化,那么这里就存在一个问题,给定一个最优的 , 那么 也是最优的吗?(注意这里:)

  • 如果  

    402 Payment Required

    , 则是最小的
  • 如果 , 则不是,因为对于普通的

那么问题就变成了:如何在不同的 下能够同样能够达到

同样的情况,在Offline RL中obejctive函数则变成了:

其中的 是我们从offline data中学习的策略, 而我们希望 , 这样就可以达到学习目的了。

总结起来就是:别走偏了,每一步都尽量让两个分布之间距离最小化的问题,不然累计起来不知道走哪里(有点TRPO的感觉)

2.3.3.2 分布偏移对OfflineRL算法收敛的影响

对2.3.3.1中的定义 , 我们换种表达方式为 ,考虑时间步为 的情况下,在离线强化学习中误差上界和时间步之间是平方关系,直觉上造成这样的原因是因为,学习策略 可能会进入和训练分布差距很远的状态,这将导致 和 差距非常大。

那么,当策略在 时刻遇到了分布之外(数据集中没见过)的状态时,策略在之后的 个时刻就有可能不断的犯错,所以累计误差 ,而且每一个时间步,都有可能进入分布外的状态,造成整体误差为 , 这对于算法的收敛来说无异于雪上加霜,关于解决这个问题的BCQ、CQL等算法将来后续博客讲解!(by Sergey)

2.4 Offline RL 发展时间线

下面是一些2012年前的offline reinforcement learning算法,最新的算法将在后面博客中详解。

e98a99d2652dab9acad46e052a43463e.png

至此,关于offline RL的简介到这里,下一篇是关于offline RL 中常用(最典型)的数据集D4RL的安装过程以及其中遇到的一些坑,以及如何设计一个高效的Offline RL算法

关于D4RL Benchmarks数据集[Github], [Paper]

2.5为什么选择 D4RL?

(1) D4RL 收集了大型数据集,包括交互式环境中智能体的记录(即自动驾驶Carla、AntMaze、Mujoco等),且有简单和复杂分类,种类非常丰富,例如:

  • 通过人工演示或硬编码控制器生成的数据。

  • 具有不同策略的异构混合的数据

  • 数据观察智能体在同一环境中完成各种目标。

082c32af4d6636673378db597a00256c.png

Environment

(2)  D4RL提供了非常简单的API接口,方便于学习者直接去获取数据集完成智能体的训练。

import d4rl # Import required to register environments
env = gym.make('maze2d-umaze-v1')
dataset = env.get_dataset()

(3)  D4RL定义了标准的衡量指标

402 Payment Required

(4)  D4RL提供了丰富的baseline基准,包括了常见的Offline算法,包括BCQ、BEAR、BRAC等等

a6bb013021c2d4830bb926ec5231d5a0.png

Baseline score

2.6 D4RL数据集制作影响因素

D4RL数据集目前来说是离线强化学习涵盖数据集非常丰富的一个数据集,数据质量非常高。其中最主要的是数据的采集综合了6类因素

  • Narrow and biased data distributions

  • Undirected and multitask data

  • Sparse rewards

  • Suboptimal data.

  • Non-representable behavior policies, non-Markovian behavior policies, and partial observ- ability.

  • Realistic domains

2

D4RL安装与使用

2.1 官方安装指导(有坑)

D4RL 的安装相对来说比较容易,但其中也有很多的坑

git clone https://github.com/rail-berkeley/d4rl.git
cd d4rl
pip install -e .

另外一种简单的安装方法

pip install git+https://github.com/rail-berkeley/d4rl@master#egg=d4rl

其中会有很多坑,导致安装失败。

下面我们根据初始化安装文件setup.py分析安装

from distutils.core import setup
from platform import platform

from setuptools import find_packages

setup(
    name='d4rl',
    version='1.1',
    install_requires=['gym',
                      'numpy',
                      'mujoco_py',
                      'pybullet',
                      'h5py',
                      'termcolor',  # adept_envs dependency
                      'click',  # adept_envs dependency
                      'dm_control' if 'macOS' in platform() else
                      'dm_control @ git+git://github.com/deepmind/dm_control@master#egg=dm_control',
                      'mjrl @ git+git://github.com/aravindr93/mjrl@master#egg=mjrl'],
    packages=find_packages(),
    package_data={'d4rl': ['locomotion/assets/*',
                           'hand_manipulation_suite/assets/*',
                           'hand_manipulation_suite/Adroit/*',
                           'hand_manipulation_suite/Adroit/gallery/*',
                           'hand_manipulation_suite/Adroit/resources/*',
                           'hand_manipulation_suite/Adroit/resources/meshes/*',
                           'hand_manipulation_suite/Adroit/resources/textures/*',
                           ]},
    include_package_data=True,
)

2.2 有效安装过程(避坑)

上述过程安装后我们会发现遇到很多问题,下面我就自己的安装过程以及遇到的问题一一列举

安装环境:Ubuntu18.04, anaconda3

第一步:安装mujoco210(针对没有安装mujoco)

# 下载地址 https://github.com/deepmind/mujoco/releases/tag/2.1.0
cd ~/Downloads/
wget https://github.com/deepmind/mujoco/releases/download/2.1.0/mujoco210-linux-x86_64.tar.gz
mv mujoco210-linux-x86_64.tar.gz mujoco210
tar -zxvf mujoco210-linux-x86_64.tar.gz
mkdir ~/mujoco
cp -r mujoco210 ~/mujoco
# 添加环境变量
sudo gedit ~/.bashrc
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$HOME/.mujoco/mujoco210/bin
export MUJOCO_KEY_PATH=~/.mujoco${MUJOCO_KEY_PATH}
source ~/.bashrc

# 测试
cd ~/.mujoco/mujoco210/bin/
./simulate ../model/humanoid.xml

08ea704a36dc568a83090193e8a635d2.png

image-20220317113717084

坑1:can't find /.mujoco/lib/libmujoco.so.2.1.1(可能安装mujoco200的伙伴会遇到)

解决办法:

(1)下载mujoco211安装包,解压

(2)在mujoco210/lib下找到libmujoco.so.2.1.1,并复制在~/.mujoco/bin在~/.bashrc下

(3)添加环境变量并source

export MJLIB_PATH=~/.mujoco/lib/libmujoco.so.2.1.1
source ~/.bashrc

第二步:安装mujoco_py

# 本步跳过conda环境创建,直接进入虚拟环境(conda create -n d4rl python=3.7)
conda create -n d4rl python=3.7
conda activate d4rl
pip install mujoco_py

python
Python 3.7.11 (default, Jul 27 2021, 14:32:16) 
[GCC 7.5.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import mujoco_py
>>> 
# 备:没有报错表示安装成功

48140e510eb0d6dead3d55341abdc99d.png

image-20220328171507687

坑2:如果是fatal error: GL/osmesa.h: No such file or directory,那就安装libosmesa6-dev

Python 3.7.11 (default, Jul 27 2021, 14:32:16) 
[GCC 7.5.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import mujoco_py
running build_ext
building 'mujoco_py.cymj' extension
gcc -pthread -B /home/jqw/anaconda3/envs/d4rl/compiler_compat -Wl,--sysroot=/ -Wsign-compare -DNDEBUG -g -fwrapv -O3 -Wall -fPIC -I/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py -I/home/jqw/.mujoco/mujoco210/include -I/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/numpy/core/include -I/home/jqw/anaconda3/envs/d4rl/include/python3.7m -c /home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/cymj.c -o /home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/generated/_pyxbld_2.1.2.14_37_linuxcpuextensionbuilder/temp.linux-x86_64-3.7/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/cymj.o -fopenmp -w
gcc -pthread -B /home/jqw/anaconda3/envs/d4rl/compiler_compat -Wl,--sysroot=/ -Wsign-compare -DNDEBUG -g -fwrapv -O3 -Wall -fPIC -I/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py -I/home/jqw/.mujoco/mujoco210/include -I/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/numpy/core/include -I/home/jqw/anaconda3/envs/d4rl/include/python3.7m -c /home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/gl/osmesashim.c -o /home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/generated/_pyxbld_2.1.2.14_37_linuxcpuextensionbuilder/temp.linux-x86_64-3.7/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/gl/osmesashim.o -fopenmp -w
/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/gl/osmesashim.c:1:10: fatal error: GL/osmesa.h: No such file or directory
    1 | #include <GL/osmesa.h>
      |          ^~~~~~~~~~~~~
compilation terminated.

Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/__init__.py", line 2, in <module>
    from mujoco_py.builder import cymj, ignore_mujoco_warnings, functions, MujocoException
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/builder.py", line 504, in <module>
    cymj = load_cython_ext(mujoco_path)
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/builder.py", line 110, in load_cython_ext
    cext_so_path = builder.build()
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/builder.py", line 226, in build
    built_so_file_path = self._build_impl()
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/builder.py", line 278, in _build_impl
    so_file_path = super()._build_impl()
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/builder.py", line 249, in _build_impl
    dist.run_commands()
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/distutils/dist.py", line 966, in run_commands
    self.run_command(cmd)
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/distutils/dist.py", line 985, in run_command
    cmd_obj.run()
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/Cython/Distutils/old_build_ext.py", line 186, in run
    _build_ext.build_ext.run(self)
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/distutils/command/build_ext.py", line 340, in run
    self.build_extensions()
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/mujoco_py/builder.py", line 149, in build_extensions
    build_ext.build_extensions(self)
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/site-packages/Cython/Distutils/old_build_ext.py", line 195, in build_extensions
    _build_ext.build_ext.build_extensions(self)
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/distutils/command/build_ext.py", line 449, in build_extensions
    self._build_extensions_serial()
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/distutils/command/build_ext.py", line 474, in _build_extensions_serial
    self.build_extension(ext)
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/distutils/command/build_ext.py", line 534, in build_extension
    depends=ext.depends)
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/distutils/ccompiler.py", line 574, in compile
    self._compile(obj, src, ext, cc_args, extra_postargs, pp_opts)
  File "/home/jqw/anaconda3/envs/d4rl/lib/python3.7/distutils/unixccompiler.py", line 120, in _compile
    raise CompileError(msg)
distutils.errors.CompileError: command 'gcc' failed with exit status 1

解决办法:

sudo apt install libosmesa6-dev
# 补充命令:sudo apt-get install libgl1-mesa-glx libosmesa6

坑3:如果是fatal error: GL/glew.h: No such file or directory,那么就安装Glew库

解决办法

sudo apt-get install libglew-dev glew-utils

坑4:如果是FileNotFoundError: [Errno 2] No such file or directory: 'patchelf': 'patchelf', 那就安装patchelf

解决办法:

sudo apt-get -y install patchelf

安装成功是这样的效果

e35a5e60b0415d8e3a45293f0e2dd852.png

image-20220328174928475

第三步:安装dm_control

pip install dm_control

第四步:安装d4rl

克隆D4RL仓库

git clone https://github.com/rail-berkeley/d4rl.git

找到到d4rl目录下的setup.py文件,注释mujoco_py, dm_control

install_requires=['gym',
                      'numpy',
                      # 'mujoco_py',
                      'pybullet',
                      'h5py',
                      'termcolor',  # adept_envs dependency
                      'click',  # adept_envs dependency
                      # 'dm_control' if 'macOS' in platform() else
                      # 'dm_control @ git+git://github.com/deepmind/dm_control@master#egg=dm_control',
                      'mjrl @ git+git://github.com/aravindr93/mjrl@master#egg=mjrl'],

然后直接安装并测试

# installing
pip install -e .

# 测试,创建test_d4rlpy.py并添加如下内容 vim test_d4rl.py

import gym
import d4rl # Import required to register environments

# Create the environment
env = gym.make('maze2d-umaze-v1')

# d4rl abides by the OpenAI gym interface
env.reset()
env.step(env.action_space.sample())

# Each task is associated with a dataset
# dataset contains observations, actions, rewards, terminals, and infos
dataset = env.get_dataset()
print(dataset['observations']) # An N x dim_observation Numpy array of observations

# Alternatively, use d4rl.qlearning_dataset which
# also adds next_observations.
dataset = d4rl.qlearning_dataset(env)


python test_d4rlpy.py

坑5:如果遇到:下面问题,那就单独安装mjrl

ERROR: Could not find a version that satisfies the requirement mjrl (unavailable) (from d4rl) (from versions: none)
ERROR: No matching distribution found for mjrl (unavailable)

安装命令

pip install git+https://github.com/rail-berkeley/d4rl@master#egg=d4rl

最后的D4RL安装结果结果

93378eae805be3a3c71a93b76f3c4879.png

image-20220317180305194

最后贴出我的~/.bashrc文件,欢迎参考

# cuda、anaconda等环境变量可以设置在本部分以前
# 环境变量次序也很重要

# mujoco(这里我安装了两部分)
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$HOME/.mujoco/mujoco210/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$HOME/.mujoco/mujoco211/bin

export MUJOCO_KEY_PATH=~/.mujoco${MUJOCO_KEY_PATH}
export MJLIB_PATH=~/.mujoco/lib/libmujoco.so.2.1.1

# nvidia
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/lib/nvidia

export LD_PRELOAD=~/anaconda3/envs/d3rlpy/lib/python3.7/site-packages/d3rlpy/dataset.cpython-37m-x86_64-linux-gnu.so
# export LD_PRELOAD=/usr/lib/x86_64-linux-gnu/libGLEW.so:/usr/lib/nvidia-465/libGL.so

export LD_PRELOAD=/usr/lib/x86_64-linux-gnu/libGLEW.so

更多的坑大家可以参阅issue:  https://github.com/rail-berkeley/d4rl/issues

坑6:有的伙伴可能会用pycharm去运行mujoco会出现一个问题就是:有nvidia的环境变量没有mujoco的,有mujoco的没有nvidia的

Exception: 
Missing path to your environment variable. 
Current values LD_LIBRARY_PATH=
Please add following line to .bashrc:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/jqw/.mujoco/mujoco210/bin

# 或者这样的
Exception: 
Missing path to your environment variable. 
Current values LD_LIBRARY_PATH=LD_LIBRARY_PATH:/usr/lib/nvidia
Please add following line to .bashrc:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/jqw/.mujoco/mujoco210/bin

解决办法

直接在pycharm运行配置中修改环境变量:python文件上右键后进入 Modify Run Configuration

66bc3d34e7d4195d448e64610e3dd2ce.png

image-20220328180705232

重点就是两个变量之间用 冒号隔开":",不是分号";", 然后就ok了

PYTHONUNBUFFERED=1;LD_LIBRARY_PATH=LD_LIBRARY_PATH:/usr/lib/nvidia:$LD_LIBRARY_PATH:/home/jqw/.mujoco/mujoco210/bin

cb457c723b69aeb76f6dfadd1fb84561.png

TD3+BC算法详解

论文信息:Scott Fujimoto, Shixiang Shane Gu: “A Minimalist Approach to Offline Reinforcement Learning”, 2021; arXiv:2106.06860.

本文是Google Brain团队和McGill大学合作,由 TD3、BCQ的作者 Fujimoto 提出并发表在NeurIPS2020 顶会上的文章,本文方法最大的优点是:方法简单、无任何复杂数学公式、可实现性强(开源)、对比实验非常充分(满分推荐),正如标题一样(A minimalist approach)。

摘要:相比于几篇博客讲过的BCQ(通过扰动网络生成动作,不断将学习策略和行为策略拉进)、BEAR(通过支撑集匹配避免分布匹配的问题)、BRAC(通过VP和PR两个方法正则化)以及REM(通过随机集成混合方法对多个值函数求取凸优化最优的鲁棒性)方法。本文作者提出的TD3+BC方法,结构简单,仅在值函数上添加一个行为克隆(BC)的正则项,并对state进行normalizing,简单的对TD3修改了几行代码就可以与前几种方法相媲美,结果表明:TD3+BC效果好,训练时间也比其他少很多。

1. Offline RL的一些挑战。

  • 实现和Tune的复杂性(Implementation and Tuning Complexities), 在强化学习中,算法的实现、论文的复现都是一个非常难的问题,很多算法并没法去复现,即使相同的seed有时候未必也能达到效果。同样在Offline中仍然存在,此外在Offline中还要解决分布偏移、OODd等之外的一些问题。

  • **额外算力需求(Extra Computation Requirement)**,由于过于复杂的数学优化、过多的超参数等算法的执行带来了很长的训练时间,导致不得不增加计算资源来学习算法使得其收敛。

  • **训练策略的不稳定性(Instability of Trained Policies)**,强化学习领域的不稳定性众所周知,所以Offline RL如何才能与Supervised leanring一样很稳定是一个重要的研究问题。

  • **Offline RL改进问题(algorithmic/Coding/Optimization)**,包括了代码层次的优化改进和理论结构方面的改进等。

其实上述的这些问题并不是去解决offline RL中的一些诸如分布偏移、OOD、过估计以及等等这些问题,而是去解决如何简单、快速、高效的实现算法的实现与高效运行问题,因此作者面对这些问题,发出疑问并给出方法:

2. TD3+BC原理

2.1 TD3+BC相比于其他的优势

下图是TD3+BC算法相对于CQL、Fish-BRC算法的复杂性对比,从表中我们可以看到CQL和Fish-BRC在算法(algorithmic)上有了很多的变种,使用生成网络,近似 等,而TD3+BC仅仅添加了一个BC term和Normalized state,足够的简单。

c3a718490d10a4b20a3385db7a33b8e2.png

2.2 理论部分

对于经典的DDPG、TD3等算法来讲, 策略梯度的计算根据David sliver提出的如下定义,即求解状态-动作值函数的期望值。

402 Payment Required

本文中,作者为了尽可能的让两个动作接近添加了一个正则项 以及   ,

402 Payment Required

个人看法: 有点像BCQ中的让学习策略和行为策略之间的距离减少那种意思,只不过添加到正则项里面.

402 Payment Required

另外一个技术点就是从代码执行层面的优化,即Normalize State,具体的Normalize过程如公式所示:

其中的 表示一个normalization常量,作者在文中使用了 , 和 表示期望和标准差(standard deviation)。

实验效果(关于纵坐标Percent difference后文有说明,本部分只看效果)

c2144a15377026956968fc911232d745.png

最后一个技术点就是关于   的求解,作者给出了计算公式,并在后文中说取值为 的时候效果最好, 实验部分有作者做的ablation实验证明。

402 Payment Required

最后贴出作者在TD3代码上的改动部分==》TD3+BC算法实现

9af9210c9d4127651fefe3b4b027dd0d.png

2.3 经典的Rebuttal场面

此外,我们看一下作者如何rebuttle这些OpenReview提出的审稿意见[1],[2]

1ee86518e4e2b1956f938d54d09c7110.png

其实这部分蛮有意思的,我们发现大多数普通人的工作还是集中在对算法的小部分优化(数学大佬和代码大神略过),这里作者教你手把手给审稿人回复(建议收藏,热别是第2条)

审稿人:

(1)首先,该方法的新颖性似乎有点有限。作者似乎直接使 RL+BC 适应离线设置,只是他们添加了状态归一化,这也不是新的。作者也没有从理论上证明这种方法的合理性。例如,作者应该证明该方法可以保证安全的策略改进,并且享有可比或更好的策略改进保证 w.r.t.先前的方法。如果没有理论依据,并且考虑到该方法的当前形式,我认为该方法有点增量。

(2)此外,实证评估并不彻底。作者仅在 D4RL 中的简单 mujoco 环境中评估了该方法。目前尚不清楚该方法是否可以很好地执行更多无向多任务数据集,例如蚂蚁迷宫和厨房,以及更复杂的操作任务,例如 D4RL 中的 adroit。似乎该方法在随机数据集上表现不佳。这是一个主要限制吗?我还认为作者应该将状态归一化添加到所有基线以确保公平比较,因为状态归一化不是 RL 中的新技术。

(3)最后,我认为比较不完整。作者还应该将该方法与最近的无模型离线 RL 方法(如 [1])和基于模型的方法(如 [2,3])进行比较,后者在随机和中等重放数据集上获得了更好的性能。总的来说,鉴于上述评论,我会投票支持弱拒绝。

下面我们看作者的神奇巧妙回复

作者回复:

(1)关于新颖性:我们完全不同意我们的算法在新颖性方面是递增的(我们在相关工作中强调了许多类似的算法)。然而,我们的主要主张/贡献与其说这是最好的离线 RL 算法,或者说它特别新颖,不如说是令人惊讶的观察,即使用非常简单的技术可以匹配/优于当前算法。希望 TD3+BC 可以用作易于实现的基线或其他添加(例如 S4RL)的起点,同时消除更复杂方法所需的许多不必要的复杂性、超参数调整或计算成本.

(2)关于经验评估:据我们所知,我们最强的基线 Fisher-BRC 被认为是无模型算法的 SOTA,最近在 ICML 上发表。

(3)由于 D4RL 结果的标准化,我们可以直接与建议的基线进行比较(我们会将这些结果包含在最终草案中)。我们在下面报告这些,但我们想说明两点:

(4)MOReL 和 MOPO 来自不同的方法系列(基于模型),并且都使用特定于环境的超参数。S4RL 与我们的方法相切,只需将 CQL 替换为 TD3+BC,就可以很容易地将其添加到我们的方法中。我们的方法可以说更适合基础算法的这些类型的添加,因为超参数更少,这意味着我们不必担心变化之间的交互作用。最终,我们没有发现添加状态归一化可以为基线提供相同水平的好处,这可能是因为这些方法需要超参数调整来补偿额外的修改。

挺有意思的,学习收藏吧!

3. 实验及过程分析

3.1 实验超参数

这部分是作者实验的一些基础,挺良心的,具体到了每一个实验环境的版本号

54fcc265c99b106830294b60c9408b13.png8d4370f54b7a08759c1d1d47bbb8f903.png

这部分特意说明一下作者的良心部分:代码版本都放出来了

f7f0cf073b958cfd9daab6a1fcf2c9c5.png

3.2 衡量指标:百分比差异(Percent Difference)

这部分公式是作者实验的参考基准计算方式,其中在博客也提出了关于差距百分比的疑问,特意查了了一下计算过程[3](备注,有的地方可能用了绝对值):877afc3e8830bd6a42c680f6f10bdda8.png

3.3 实验验证与结果简要分析

说明:关于D4RL数据集的组成、安装和解释请参考博文 离线强化学习(Offline RL)系列2: (环境篇)D4RL数据集简介、安装及错误解决

本实验参数 HC = HalfCheetah, Hop = Hopper, W = Walker, r = random, m = medium, mr = medium-replay, me = medium-expert, e = expert. While online algorithms (TD3) typically have small episode variances per trained policy (as they should at convergence),

3.3.1 D4RL验证讨论

3bd984a44cee162adce136c00ae5b007.png4b19b69f0140d70c3871fb65cca9cfbb.png

3.3.2 运行训练时间讨论

可以从实验结果中很直白的看到,CQL、FishBRC与TD3+BC( )的运行时间, 其实这与算法的复杂性紧密相关,对于TD3来说只需要去根据超参数学习网络即可,但对于CQL等算法,需要学习一堆的参数。

001cdb30047a497c244b885c9e5e77f5.png762f3a7d86a767b0baeeee6f8e36fb16.png

3.3.3 消融(ablation)实验(如何确定 ?)

这部分其实对比了vanillaBC方法和区别,同时就参数 做了对比得出了最好的 。

7b40f7ce67d690e31740c0b78b666639.png

2. Offline RL误差的来源

2.1 分布偏移(distribution shift)

5c99f65d50bcb1d290d82e331e72a8a3.png

分布偏移最主要的原因是learned policybehavior policy之间的偏移(从图中我们可以清晰的看到两者之间的区别),这也是offlineRL相比于Online RL在不能交互学习的情况下造成的。

2.2 OOD(out-of-distribution) action问题

OOD问题在Offline RL中非常常见,简单的可以理解为状态-动作对可能不在我们的offline Dataset中,对应的分布也一样,即学习分布远在(far outside)训练(training distribution)分布之外。

bc39660073eac00ac3f685ca47cb9a3d.png那么训练和优化过程如下:

ab3ca2041b6fda35d5f3f669ab6220d2.png

结合上图,其实真正解决这个问题,第一直观的想法就是增大数据集的数量,让数据集尽可能包含训练分布,这样学习分布基本可能会在范围内,然而这个方法并不奏效:

1552ca6160ad851f2f4d3c1fc30f5157.png

作者在实验中使用了大小不一样的数量实验,结果表明即使增大train samples, 算法的性能并没有得到有效提升,同时也会引发下一个累计误差问题:

1be664e9941c5499d2953fdc93185fb3.png

此外Q值误差居高不下,是什么原因造成的?

2.3 贝尔曼误差(Bellman error)

这就是本文的核心问题了,深度强化学习中动态规规划(MC,TD)最核心的就是Q函数,我们知道在Q-learning中学习的时候,目标函数Q的计算通常是利用自举(bootstrapping)的方式,从训练集分布中去最大化函数估计,但由于OOD之外的数据,导致这个过程的error不断累积,最终导致严重偏离学习策略。335368f4da73cd13d3c5e7480ff9424d.png

我们在Online RL中知道,最优 函数 遵循最优贝尔曼方程,如下所示:

402 Payment Required

然后,强化学习对应于最小化该等式左侧和右侧之间的平方差,也称为均方贝尔曼误差 (MSBE),得到:

402 Payment Required

MSBE 在由行为策略 生成的数据集 中的转换样本上最小化。尽管最小化 MSBE 对应于有监督的回归问题,但该回归的目标本身是从当前 函数估计中得出的。于是对于迭代 次的Q-learning来说,总误差(error) 可以定义为:

402 Payment Required

其中当前的贝尔曼误差(Bellman error)为:

402 Payment Required

那么我们就可以得出以下结论:

所以说,当一个状态-动作分布处于OOD之外时,我们其实是希望   很高,因为我们的优化目标是不断将处于分布之外的策略分布与训练分布距离最小化。为了缓解这个问题,作者提出了一个解决方法就是让学习策略输出的动作处于训练分布的支撑集(Support-set)中

所谓的Support-set, 其实就是"学习策略 只有在行为策略 的密度大于阈值 ,而不是对密度 和 的值的接近约束。" 原话:

251821fb16382acb859f5d3e0b2d3e17.png

下面我们结合例子解释一下 分布匹配(Distribution-matching支撑集匹配(Support-set matching) 的区别,以及原理。

3. 从一个例子原因分析开始

3f7ae17bd4de523c0b0428592ebfedaa.png

考虑一维的Lineworld Environment问题,我们从 点出发到达 点,动作集分为“向左”和“向右”两种,对应的奖励在上图中有标记。

9b7be71d531ab9ba4ef185d7c35eba60.png那么,行为策略在 和 之间的状态下执行次优动作,可能性为 0.9,但是动作 和 的状态都在分布内(in-distribution)。

个人理解原因

051aa0cfe15484af04dad8f2f7ecc2ca.png

3.1 Distribution-matching

18eb07a6fcb71358676e93f7bd068650.png如上图,分布匹配约束(distribution matching constraint)的学习策略可以是任意次优的,事实上,通过推出该策略达到目标 G 的概率非常小,并且随着环境的建立而趋于 0 较大。

3.2 Support-constraint

1ef1218a357a2c606d74f3ec996e1ac3.png然而,在support-constraint中,作者表明支持约束可以恢复概率为 1 的最优策略(其实原因很简单,就是阈值 的原因, 只要动作在训练行为策略分布的支持集内就可以)。

那么为什么Distribution-matching在这里会失败?

  • 如果惩罚被严格执行,那么智能体将被迫在 和 之间的状态中主要执行错误的动作 ,导致次优行为。

  • 如果惩罚没有严格执行,为了实现比行为策略更好的策略,智能体将使用 OOD之外的action 在 左侧的状态执行backups,这些backups 最终会影响 状态S下的Q值。这种现象将导致不正确的 Q 函数,从而导致错误的策略——可能是从 S 开始向左移动而不是向 G 移动的策略,因为 OOD 动作backups与高估偏差相结合Q-learning 可能会使状态 S 的动作 看起来更可取。如下图所示,一些状态需要强惩罚/约束(以防止 OOD backups),而其他状态需要弱惩罚/约束(以实现最优性)才能使分布匹配起作用,但是,这无法通过传统的分布匹配来实现方法。

b094749570261435056928821006bc8b.png

通过上述分析,我们得出一个结论:我们希望的不是学习策略和行为策略越像越好,而是学习策略能够在行为策略的支撑集的范围内去进行优化, 如果学习策略和行为策略无限接近那不就是Behavior clone了,但offline无法无限的去逼近online,所以问题仍然存在。

下图就是关于Distribution-matching 和support constraint选择动作的区别

5f53b8ed49083066cec79b3ba5ff36b0.png

从图中我们可以看到:以红色的行为策略 为基准,在distribution-matching中则仅有紫色的学习策略相符,但在support-matching中黄色的都是可以匹配的learned policy, 所以更通用。

那么support-set matching更通用,具体是怎么matching的呢?下文我们从论文的理论部分开始分析。

4. 理论设计及分析(核心:建议阅读)

4.1 Support-set Matching(支撑集匹配方法)

4.1.1 支撑集匹配原理

第一步:解决策略集定义及收敛,定义Distribution-constraint operators概念,如下所示:

70d13e1957d61e77a6121d2566cabb88.png

808ef86267251507ff817bed97848833.png

这里面最关键的有以下几个地方:

  • 定义了一个策略集 ,且动作空间 ,而不是定义策略

  • 根据原始的MDP问题重新定义了一个新的MDP" 问题,原理和bellman operator一样,同样利用了不动点去证明收敛性。

为了分析在近似误差下执行backup的次优(suboptimality) 问题,作者提出两个方面:

  • 次优偏置(suboptimality bias), 也就是最优的学习策略如果在行为策略支撑集之外的话,仍然能够找到次优策略。

  • 次优常数(suboptimality constant),分布偏移、OOD之外的次优问题,次优常数相当于做了一个限定(which measures how far is from ), 越小,policy set 距离optimal policy 的距离越小。】

6bd1c123162ca5e1f9b097689ac08c20.png925d57945e8d043a288832a7c6d951b8.png

这里定义了一个Concentrability越小,就说明policy set 中的policy 与 behavior policy 越相似】

第二步:最后作者给出了一个边界(bound)

8034388c236306d627b776cf186f453d.png

a489a2e125e3eaf02446ffd30c34fdb7.png

证明过程如下:

4a4047a0062c6aeaee128d50d375cee5.png

这里的[Error Bounds for Approximate Value Iteration] 中解释了

402 Payment Required

We choose policies only lying in high support regions of the behaviour policy.Allows for a tradeoff between: Keeping close to the data (minimizing amount of propagated error) Having freedom to find the optimal policy

9a5e0918db501ee9ed1d90e32b0b5696.png

这里作者不是对所有策略执行最大化,而是对集合 Pi_eps 执行受限最大值,为了实际执行此操作,使用执行支撑匹配的约束。

其中作者原话是:

We change the policy improvement step, where instead of performing a maximization over all policies, we perform the restricted max over the set and in order to do this practically, we use a constrained formulation, where we use a constraint that performs support matching. We constrain the maximum mean discrepancy distance between the dataset and the actor to a maximal limit, using samples.

4.1.2 为什么要从 选取动作?

f7cb812a13a819e638b2d738fee3263d.png

通过以上的方法,问题最终化解为一个求解最优问题:

3e01ce5c4f37900620c6bf4187c7b793.png

4.2 Maximum Mean Discrepancy (MMD)

4.2.1 MMD原理

MMD [A Kernel Two-Sample Test] 方法是一种统计测试以确定两个样本是否来自不同的分布,检验统计量是再现 kernel Hilbertspace (RKHS) 的单位球中函数的最大期望差异。

dd9c55775d5643706a1bb84c5bb84b0a.png

4.2.2 MMD代码求解

def gaussian_kernel(x, y, sigma=0.1):
  return exp(-(x - y).pow(2).sum() / (2 * sigma.pow(2)))

def compute_mmd(x, y):
  k_x_x = gaussian_kernel(x, x)
  k_x_y = gaussian_kernel(x, y)
  k_y_y = gaussian_kernel(y, y)
  return sqrt(k_x_x.mean() + k_y_y.mean() - 2*k_x_y.mean())

4.2.3 与KL divergence的区别

c6245cccd2dfcbe8d51700237b2631ce.png

4.3 双梯度下降(Dual Gradient Descent)(可跳过)

4.3.1 DGD原理及图解[Dual Gradient Descent]

双梯度下降是一种在约束条件下优化目标的流行方法。在强化学习中,它可以帮助我们做出更好的决策。

99962d0380639afdfdc4aa5c6d784341.png

5. BEAR算法执行过程

5.1 BEAR原版

fa15d09fe7c97dc6b7d28afcbabd5255.png

5.2 BEAR修补版

545f304c29411040a619ec2a889e281d.png

6. 部分结果分析

d787927348ab78a64e635192e6bc7ba1.png06548ced5cddf5c3d08724af9017525a.png

7. Pytorch代码实现部分浅析

本代码由原作者开源 [Github]

a53be914360c36ab3a13dbb4faeb523d.png

7.1 Installing & running

python main.py --buffer_name=buffer_walker_300_curr_action.pkl --eval_freq=1000 --algo_name=BEAR
--env_name=Walker2d-v2 --log_dir=data_walker_BEAR/ --lagrange_thresh=10.0 
--distance_type=MMD --mode=auto --num_samples_match=5 --lamda=0.0 --version=0 
--mmd_sigma=20.0 --kernel_type=gaussian --use_ensemble_variance="False"

本文来源自:https://www.zhihu.com/column/c_1487193754071617536

分享

收藏

点赞

在看

c55a4811172af6deb0728290518c9ed2.gif

  • 4
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 创建离线强化学习的 MDP 数据集需要遵循以下步骤: 1. 确定你的任务和环境:首先,你需要明确你的任务是什么,例如,你想让智能体在一个固定的网格世界环境中找到宝藏。你需要定义环境中的状态、动作、奖励函数、终止条件等。 2. 收集数据:使用一个智能体或者一组预定义策略在你的环境中收集数据。你可以使用随机策略或者一些基本的启发式策略来收集数据。 3. 处理数据:将收集到的数据进行预处理。这包括将状态和动作编码成数字或者向量,将奖励函数转换为实际的奖励值,以及将数据划分成训练集和测试集。 4. 训练模型:使用离线强化学习算法来训练模型。这些算法可以是基于值函数的,例如 TD-learning 或者 Q-learning,也可以是基于策略的,例如 Policy Gradient。 5. 评估模型:在测试集上评估模型的性能。你可以比较不同算法和模型的性能,或者使用一些标准的性能指标,例如平均回报或者成功率。 注意,创建离线强化学习的 MDP 数据集需要一些专业知识和实践经验。如果你是新手,可以先从一些基础的强化学习算法和环境开始,逐步掌握相关的技术和方法。 ### 回答2: 要使用自己的数据集创建离线强化学习MDPD(离线多副本策略评估)数据集,需要按照以下步骤进行: 第一步,确定数据集的目标:确定你自己的数据集要解决的问题和任务。例如,你可能希望构建一个自动驾驶车辆的离线强化学习数据集,任务是将车辆安全地驾驶到目的地。 第二步,收集环境数据:收集与你的任务相关的环境数据。可以通过模拟器、传感器或其他收集数据的设备来获取环境数据。这些数据应该包括车辆状态、操作和与环境交互的信息。 第三步,定义奖励函数:根据你的任务目标,定义奖励函数,它对于强化学习算法来说至关重要。奖励函数应该能够告诉代理在某个动作上的执行效果如何。例如,在自动驾驶车辆的情况下,奖励函数可能会给予安全行驶和按时到达目的地的操作正向奖励,而给予事故或迟到的操作负向奖励。 第四步,创建状态-动作对:使用收集到的环境数据和定义的奖励函数,将每个状态和对应的可行动作作为数据集的一部分。这些状态-动作对可以用来训练强化学习算法。 第五步,划分数据集:将数据集划分为训练集、验证集和测试集。训练集用于训练强化学习算法,验证集用于选择合适的算法调优超参数,测试集用于评估训练后模型的性能。 第六步,数据预处理:对数据集进行必要的处理,例如归一化、去除异常值、平衡数据等。这有助于提高模型的训练效果和泛化能力。 第七步,训练强化学习模型:使用划分后的训练集和定义好的强化学习算法,对模型进行训练。可以使用各种强化学习算法,如深度Q网络(DQN)、策略梯度方法等。 第八步,验证和调优:使用验证集来验证训练后模型的性能,并根据结果进行调优。可以调整模型的超参数、改进奖励函数等。 最后,使用测试集对训练好的模型进行评估,检查其在未见过的情况下的表现。 通过以上步骤,你可以使用自己的数据集创建一个离线强化学习MDPD数据集,为研究和应用离线强化学习提供更具挑战性的问题和任务。 ### 回答3: 要使用自己的数据集创建离线强化学习MDPD数据集,需要按照以下步骤进行: 1. 数据收集:首先,你需要收集用于训练强化学习模型的数据。这些数据可以是关于你想解决的任务的环境状态、动作和奖励的记录。确保数据集涵盖了各种可能的环境状态和动作。 2. 数据预处理:对于收集到的数据,需要进行一些预处理工作。例如,你可以将状态和动作转换为合适的表示形式,并归一化奖励。此外,你还需要检查数据是否完整和准确,并处理可能存在的异常值。 3. 数据划分:将数据集划分为训练集和测试集。训练集将用于训练强化学习模型,而测试集将用于评估模型的性能。确保在划分时保持数据集的随机性和均匀性。 4. 数据格式转换:将数据转换为MDPD(Multi-Decision Processes with Discrete actions)数据集的格式。MDPD数据集的格式包括状态、动作、奖励和下一个状态。确保转换后的数据集具有良好的结构,使其适用于离线强化学习算法的训练。 5. 数据存储:将转换后的数据集保存到适当的文件中,以供离线强化学习算法使用。可以选择将数据集保存为CSV、JSON或其他常见的数据格式。 6. 模型训练:使用所创建的MDPD数据集,可以使用离线强化学习算法对模型进行训练。在训练过程中,可以使用模型评估测试集的性能,并对模型进行调整和改进。 通过以上步骤,你就可以使用自己的数据集创建离线强化学习MDPD数据集,并使用该数据集进行模型训练和评估。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值