一块V100运行上千个智能体、数千个环境,这个曲率引擎框架实现RL百倍提速

WarpDrive是一款由Salesforce研发的开源框架,能在单个V100 GPU上并行运行数千个强化学习环境和智能体,大幅提升了训练速度。相较于传统CPU+GPU的实现方式,WarpDrive在强化学习实验中的性能提高了几个数量级。
摘要由CSDN通过智能技术生成

6218c8c6a3bf8839eaefa2374401ebca.gif

©作者 | 张倩

来源 | 机器之心

在强化学习研究中,一个实验就要跑数天或数周,有没有更快的方法?近日,来自 SalesForce 的研究者提出了一种名为 WarpDrive(曲率引擎)的开源框架,它可以在一个 V100 GPU 上并行运行、训练数千个强化学习环境和上千个智能体。实验结果表明,与 CPU+GPU 的 RL 实现相比,WarpDrive 靠一个 GPU 实现的 RL 要快几个数量级。

深度强化学习是一种训练 AI 智能体的强大方法。然而,如何将强化学习应用于多个智能体或高维状态、观察结果、行动空间等复杂场景仍然是一个具有挑战性的问题。多智能体系统是强化学习研究和应用的前沿,尤其是那些存在多个智能体交互的系统。它们对于解决经济、自动驾驶、对话智能体、机器人学以及其他很多领域的工程和科学问题具有重要意义。

在这一问题中,训练智能体的时间是一大挑战。如果训练的智能体比较多,一个强化学习实验往往要花费数天或数周才能完成。主要原因在于:在在线训练中,强化学习需要反复运行模拟、训练智能体模型。此外,学习所需的重复次数会随着问题的复杂度呈指数级增长。这在无模型设置中是最突出的,在这种设置中,强化学习智能体在训练时通常对当前的模拟或任务没有任何初始知识。由于深度强化学习实现通常将基于 CPU 的模拟和 GPU 神经网络模型结合在一起,现实世界中的训练时间可能会非常长。

为了提高强化学习系统的吞吐量,来自 Salesforce 的研究者提出了一种名为 WarpDrive 的开源框架,来构建极其快速的(多智能体)深度强化学习(MADRL)pipeline。

2f2866625cf25ffcc1a305cf859cd304.png

论文链接:

https://arxiv.org/pdf/2108.13976.pdf

项目地址:

https://github.com/salesforce/warp-drive

WarpDrive 在一个 GPU 上端到端地运行整个 MADRL 工作流,使用单个数据存储进行模拟 roll-out、推理和训练。这将最小化通信和复制的成本,显著提升模拟采样和学习速率。WarpDrive 还利用 GPU 的并行能力,并行地运行模拟和每次模拟中的智能体。综合来看,这些设计选择使得运行数千个并发模拟成为可能,每个模拟包含数千个智能体,在非常大的批次上进行训练。

论文中的基准测试表明,与混合 CPU 模拟和 GPU 模型的一般实现相比,WarpDrive 实现的 RL 要快几个数量级。比如,在有 2000 个模拟、1000 个智能体的 Tag 模拟中,WarpDrive 的吞吐量实现了至少 100 倍的性能提升。

此外,研究者还将 WarpDrive 构建得非常灵活、易用、易扩展,并在现有库的基础上进行构建和补充,如 PyCUDA 和 PyTorch。在这个初始版本中,WarpDrive 使用在 CUDA C 中实现的 step 和 reset 方法的模拟,使用 OpenAI gym-API 风格。这使得用户在实现模拟的时候能够使用 CUDA 编程的全部特征集。WarpDrive 在 PyCUDA 的基础上构建,可以方便地访问用 CUDA C 编写的 GPU 数据和模拟方法。它还提供了一个轻量级的 Python 包装器来自动构建 gym 风格的环境对象,实现模拟 API。因此,WarpDrive 可以让用户轻松地创建和扩展自定义 RL pipeline,以最大化 GPU 的用途。

作者表示,WarpDrive 这一名字的灵感来自科幻小说中的超光速宇宙飞船推进系统——曲率引擎,后者可以通过对时空本身的改造来驱动飞船。

806465854f3a37b3643685c5180e7ec9.png

在这篇论文中,研究者概述了 WarpDrive 的设计,并展示了它在基准模拟中的吞吐量和可扩展性。最后,他们总结了未来的发展方向。

用 WarpDrive 加速强化学习

WarpDrive 提供了一个框架和一些高质量的工具,帮助用户快速构建快捷而灵活的多智能体强化学习系统。图 3 显示了 WarpDrive 的一个基本用例。

09506264ba561bb82e872ba9c66c5548.png

接下来,研究者自下而上地介绍了 WarpDrive 的设计和组件,以及它们在加速强化学习方面的作用。

CUDA 计算

WarpDrive 专注于 CUDA(Compute Unified Device Architecture),这是一个流行的平台和编程模型,允许用户在(CUDAenabled)GPU 硬件上运行程序。CUDA 程序也被称为计算 kernel。CUDA API 可以直接访问 GPU 的虚拟指令集和并行计算元素。

GPU 的一个关键特性是它们可以并行运行许多计算线程。线程组成线程块,多个线程块组成一个网格结构。一个 CUDA kernel 可以访问并定义这些线程的并行计算,见下图 2。

b21b23ee409c00ad10d0f7d5f22770f7.png

DataManager 和 FunctionManager

图 2 显示了 WarpDrive 框架的一些细节。所有在 GPU 上运行的 CUDA 程序都需要通过 CPU 触发。按照 CUDA 的规则,CPU 被称为主机(host),GPU 被称为设备。任何 CUDA 程序的执行都包括三个主要步骤:

  1. 主机到设备的传输(push):将输入数据从主机内存复制到设备内存,例如在训练开始时。

  2. 加载 CUDA 函数,在 GPU 上执行并缓存数据以提高性能。

  3. 设备到主机的传输(pull):将数据从设备内存复制回主机,例如训练结束的时候。

按照这个模式,WarpDrive 实现了两个重要的 Python 类(驻留在 CPU 上)——DataManager 和 FunctionManager,以方便主机和设备之间所有与 RL 相关的通信和交互。DataManager 提供了一个简易 API 来处理与 RL 相关的主机和设备之间的所有数据传输(pull 和 push)。FunctionManager 允许用户从 CPU 调用 CUDA kernel,并在 GPU 上执行它们。

WarpDrive RL 工作流

使用 WarpDrive,在 GPU 上收集 rollout 和训练模型的一个典型 RL 工作流如下所示:

1. 初始化并重置环境对象后,将主机上的所有数据复制到设备上。DataManager 提供 API 方法来执行此 push 操作。从主机复制到设备的数据可能包括环境配置参数、在第一次重置结束时创建的数据数组,以及观察、动作、奖励和「完成」标志的占位符。DataManager 还帮助维护变量的副本,这些变量需要在每次重置时重新初始化。在这点之后,就不再从主机向设备推送数据了。

2. FunctionManager 提供 API 方法来初始化和调用 CUDA C kernel 函数,这些函数用于从主机节点执行环境步骤。这些函数只在设备上执行,所有的数据数组都被就地修改。出于可视化或分析的目的,主机可能会不时地拉取(pulled)数据,但所有数据本质上只能在训练期间驻留在 GPU 上。

3.WarpDrive 还包含一个 Sampler 类,用于对动作进行采样,以便逐步遍历环境。使用策略模型计算出的概率对动作进行抽样。WarpDrive 的采样器在每个智能体线程上并行运行,运行速度比等效的 PyTorch 实现快 2 倍。详见实验部分。

4. 在 GPU 中,研究者并行执行多个环境副本。每个环境运行在一个单独的线程块上。由于一个典型的 GPU 有数千个块,在一个 GPU 上并行执行数千个环境也是可行的。

5. 任何环境都可能达到终端状态并被「完成」。WarpDrive 提供了一个 EnvironmentReset 类,用于自动识别和重置那些已完成的环境。此时,那些环境也被重置并给出(新的)初始数据。例如,它们可能使用在初始重置时复制的初始数据数组。

6. 在每个环境中,每个智能体还可以在智能体独占(agent-exclusive)的线程上执行它自己的逻辑。图 2 显示了一个示例,其中智能体 i、j 和 k 分别在单个线程 i、j 和 k 上并行操作。这在多智能体 RL 中非常有用,因为可以完全将智能体操作并行化,因此模拟时间复杂度保持不变,即使智能体数量增加(达到可用线程的数量)。

7. 一旦从几个环境和智能体中收集到的数据被送到训练数据 batch 中,也可以用 WarpDrive 执行端到端训练。这次推出的 WarpDrive 包括一个示例训练脚本和 Trainer 类,它目前实现了 Advantage Actor Critic(A2C)、近端策略优化(PPO)RL 算法和一个全连接神经网络策略模型。Trainer 基于 PyTorch 构建,并从 CPU 主机调用所有 CUDA kernel 和 PyTorch 操作。然而,PyTorch 可以直接访问和解释以 torch 形式存储在设备上的 WarpDrive 数据 batch(状态、动作、奖励和完成标志)。这使得用户可以计算损失并修改模型参数,同时消除数据复制。考虑到 WarpDrive 的模块化特性,这一框架很容易扩展。

这些设计选择使得 WarpDrive 非常高效。

实验结果

研究者使用 Tag 游戏演示了 WarpDrive 的工作流,并对其性能进行了测试。他们比较了以下两种情况的性能:

  • 使用 CPU-simulations + GPU-agent 的模型;

  • 在单个 Nvidia V100 GPU 上运行 WarpDrive。

测试结果表明,与使用 CPU-simulation + GPU-agent 的模型相比,WarpDrive 的吞吐量要高几个数量级。

78493f8114b3996122ff756001e754d9.png

d0566f2547932e9140bcae9ba91fe288.png

21f9d5e01e1f5f70ad0a8f39adfcfdc4.png

3a77b7520ab78cec9beef5bbb6170a42.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

0d3b7f89a6fc43dd416c77ba88eb2d46.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

822b8b5b75fe2ba9ef678aefb1c39987.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值