Better & Faster Large Language Models via Multi-token Prediction

本文是LLM系列文章,针对《Better & Faster Large Language Models via Multi-token Prediction》的翻译。

摘要

GPT和Llama等大型语言模型是用下一个token预测损失来训练的。在这项工作中,我们建议训练语言模型来同时预测多个未来的token可以提高样本效率。更具体地说,在训练语料库的每个位置,我们要求模型使用n个独立的输出头预测以下n个token,这些输出头在共享模型主干上运行。将多token预测视为一项辅助训练任务,我们测量了代码和自然语言模型在没有训练时间开销的情况下提高的下游能力。该方法对于更大的模型尺寸越来越有用,并且在训练多个生成时仍然具有吸引力。在编码等生成性基准测试中,收益尤其明显,我们的模型始终比强基线高出几个百分点。我们的13B参数模型在HumanEval上解决的问题比同类下一个token模型多12%,在MBPP上多17%。在小型算法任务上的实验表明,多token预测有利于归纳头和算法推理能力的发展。作为一个额外的好处,即使在大批量的情况下,用4token预测训练的模型在推理方面也快了3倍。

1 引言

2 方法

3 真实数据的实验

4 合成数据的消融实验

5 为什么它有效?一些猜测

6 相关工作

7 结论

我们提出了多token预测,作为对生成或推理任务训练语言模型中下一个token预测的改进。我们的实验(多达7B个参数和1T个token)表

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值