TinyLLM: Learning a Small Student from Multiple Large Language Models

828 篇文章 3 订阅

已下架不支持订阅

TinyLLM是一种新的知识提取方法,旨在从多个大型语言模型(LLM)中训练出小型的高效LLM学生模型。通过解决现有方法的知识多样性和上下文理解问题,TinyLLM鼓励学生模型不仅生成正确答案,而且理解答案背后的推理。通过引入上下文示例生成器和教师强制思想链策略,保证推理的准确性和相关性。实验证明,尽管TinyLLM规模小,但在推理任务上的性能超越大型教师模型。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《TinyLLM: Learning a Small Student from Multiple Large Language Models》的翻译。

TinyLLM:从多个大型语言模型中学习一个小学生

摘要

将推理能力从更强的大型语言模型(LLM)转移到更小的模型是非常有吸引力的,因为更小的LLM更灵活,部署成本更低。在现有的解决方案中,知识提炼因其卓越的效率和泛化能力而脱颖而出。然而,现有的方法存在一些缺陷,包括知识多样性有限和缺乏丰富的上下文信息。为了解决这些问题并促进紧凑语言模型的学习,我们提出了TinyLLM,这是一种新的知识提取范式,用于从多个大型教师LLM中学习一个小型学生LLM。特别是,我们鼓励LLM学生不仅要生成正确的答案,还要理解这些答案背后的原理。鉴于不同的LLM具有不同的推理技能,我们引导学生模型吸收不同教师LLM的知识。我们进一步引入了上下文中的示例生成器和教师强制思想链策略,以确保推理是准确的,并基于上下文适当的场景。在两个推理任务的六个数据集上进行的大量实验证明了我们方法的优越性。结果表明,尽管TinyLLM的模型尺寸要小得多,但它的性能明显优于大型教师LLM。

1 引言

2 方法

3 实验

4 结论</

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值