Inference Acceleration for Large Language Models on CPUs

本文是LLM系列文章,针对《Inference Acceleration for Large Language Models on CPUs》的翻译。
@TOC

摘要

近年来,大型语言模型在各种自然语言处理(NLP)任务中表现出了卓越的性能。然而,为现实世界的应用程序部署这些模型通常需要高效的推理解决方案来处理计算需求。本文探讨了如何利用CPU加速大型语言模型的推理。具体来说,我们引入了一种并行方法,通过1)利用现代CPU架构的并行处理能力,2)对推理请求进行批处理来提高吞吐量。我们的评估显示,加速推理引擎每秒生成的token提高了18-22x。序列越长,模型越大,提高幅度越大。除此之外,我们还可以在同一台具有NUMA节点隔离的机器上运行多个worker,以进一步提高token/秒。表2显示,我们在4个worker的情况下获得了4倍的额外改进。这也将使基于人工智能的产品和公司对环境友好,我们的估计显示,推理的CPU使用率可以将LLM的功耗降低48.9%(使用AMD EPYC 7V13的A100为1252 W,而使用Intel®Xeon®Gold 6538N为613 W),同时提供生产就绪的吞吐量和延迟。

1 引言

2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值