Token-Efficient Leverage Learning in Large Language Models

本文是LLM系列文章,针对《Token-Efficient Leverage Learning in Large Language Models》的翻译。

大型语言模型中的token高效利用学习

摘要

大型语言模型(LLM)在各种任务中表现出色,但在高资源场景中表现更好,这在低资源场景中带来了挑战。数据稀缺和使LLM适应特定任务的固有困难加剧了这一挑战。为了解决这两个障碍,我们引入了杠杆学习。我们提出了一种简化的方法,称为token高效杠杆学习(TELL)。TELL展示了杠杆学习的潜力,展示了各种LLM和低资源任务的有效性,从104到106个token不等。与传统的监督微调(SFT)相比,它将任务数据要求降低了近一个数量级,同时提供了具有竞争力的性能。在任务数据量相同的情况下,与SFT相比,TELL在提高任务性能方面处于领先地位。我们讨论了杠杆学习的机制,表明它与量化假设相一致,并通过实证检验探索了其有前景的潜力。

引言

2 相关工作

3 杠杆学习和TELL

4 实验

5 结论

我们引入了Leverage Learning,这是一种在低资源任务

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值