EE-LLM: Large-Scale Training and Inference of Early-Exit Large Language Models with 3D Parallelism

828 篇文章

已下架不支持订阅

本文提出EE-LLM框架,用于大型语言模型的早期退出训练和推理,实现了3D并行性。通过算法创新和性能优化,如反向传播流水线并行,推理加速且不牺牲输出质量,同时兼容自回归生成的KV缓存。源代码已开源,为大规模研究和应用提供了工具。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《EE-LLM: Large-Scale Training and Inference of Early-Exit Large Language Models with 3D Parallelism》的翻译。

EE-LLM:具有三维并行性的早期退出大型语言模型的大规模训练和推理

摘要

我们提出了EE-LLM,一个用于早期退出大型语言模型(LLM)的大规模训练和推理的框架。虽然最近的工作已经初步证明了早期退出在加速LLM推理方面的有效性,但EE-LLM通过支持大规模3D并行性的训练和推理,朝着扩大早期退出LLM迈出了基础性的一步。EE-LLM建立在Megatron-LM的基础上,实现了各种针对早期退出的算法创新和性能优化,包括一种轻量级方法,该方法有助于通过流水线并行性对早期退出训练目标进行反向传播,利用原始流水线调度中的空闲资源进行与早期退出层相关的计算的技术,以及与用于自回归生成的KV缓存兼容的两种早期退出推断方法。我们的分析和实证研究表明,与标准LLM训练相比,EE-LLM以可忽略的计算开销实现了很高的训练效率,并在不影响输出质量的情况下实现了出色的推理加速。为了促进进一步的研究和采用,我们在https://github.com/pan-x-c/EE-LLM上开源了EE-LLM。

1 引言

2 前言</

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值