A Law of Next-Token Prediction in Large Language Models

本文是LLM系列文章,针对《A Law of Next-Token Prediction in Large Language Models》的翻译。

大型语言模型中的下一个token预测定律

摘要

大型语言模型 (LLM) 已广泛应用于各个应用领域,但其黑盒性质对理解这些模型如何在内部处理输入数据以进行预测提出了重大挑战。在本文中,我们引入了一种精确的定量定律,该定律通过预训练的 LLM 中的中间层来控制上下文化token嵌入的学习,以进行下一个token预测。我们的研究结果表明,从最低层到最高层,每一层都对提高预测准确性做出了同等贡献——这是在基于 Transformer、RWKV 和 Mamba 等架构构建的各种开源 LLM 中观察到的普遍现象。我们证明,该法律提供了新的视角和见解,可以为LLM开发和应用的实践提供信息和指导,包括模型扩展、预训练任务和信息流。总体而言,我们的法律通过审查LLM的内部数据处理机制,为LLM的设计、训练和解释提供了更细粒度的方法。

1 主要结果

2 从定律的视角

3 讨论

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值