大模型时代下两种few shot高效文本分类方法

介绍近年(2022、2024)大语言模型盛行下的两篇文本分类相关的论文,适用场景为few shot。两种方法分别是setfit和fastfit,都提供了python的包使用方便。

论文1:Efficient Few-Shot Learning Without Prompts
题目:无需提示的高效少镜头学习
来源:huggingface 2022
文档:https://huggingface.co/docs/setfit/installation
python包:https://pypi.org/project/setfit/
github:https://github.com/huggingface/setfit/tree/main
论文:https://arxiv.org/pdf/2209.11055

摘要:
    解决few-shot的有效方法:PEFT、PET,存在的问题是需要人工构造prompts,并且需要大语言模型来提高精度。
    setfit:不需要prompt框架,使用sentence-transformers(ST)微调实现few-shot。
    setfit 的工作原理是首先在少量文本对上微调预训练的ST,以对比 Siamese 方式。然后使用生成的模型生成丰富的文本嵌入,用于训练分类头。

贡献:一种简单而无提示的方法——并提供了在实际少镜头设置中应用它的全面指南。
1.我们以 Siamese 的方式微调 ST 以进行文本分类目标,表明它显着提高了性能;
2.我们在少样本设置中演示了这种方法。

论文2:When LLMs are Unfit Use FastFit: Fast and Effective Text Classification with Many Classes
题目:大模型不适用时 使用fastfit:多类别下快速有效的文本分类方法
来源:IBM 2024
python包:https://pypi.org/project/fast-fit/
论文:https://arxiv.org/pdf/2404.12365
github:https://github.com/IBM/fastfit/tree/main

摘要:
    FastFit主要用于少镜头分类,尤其是有很多语义相似类别的场景
    方法:批对比学习+token级别的相似分数

现有挑战:少镜头+多类别+语义相似场景
    具体难点:扩展训练数据费时昂贵
    方法:调用大语言模型或者微调小语言模型
    1.利用大语言的多任务能力解决数据稀缺问题
        1.类别多的时候,LLM很难将所有类别都放进上下文窗口;
        2.类别放进了上下文窗口后,分类效果也是一个挑战;
        3.效果ok的话,长上下文和模型规模也会造成推理时间很慢。
    2.利用小语言模型对特定任务的适应性
        1.架构调整
        2.不适用于多类别的时候

本文的方法也是微调小语言模型的方法,能够提供3-20倍的加速。
具体方法:
    1.批对比学习
    2.token级别的相似分数
    3.文本增强方法

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
模型在few-shot学习中的使用通常涉及两个主要步骤:预训练和微调。 首先,大模型通常会通过在大规模数据集上进行预训练来学习通用的语言表示。这个预训练阶段可以使用无监督学习方法,如语言模型预测任务,其中模型被要求根据上下文预测缺失的单词。通过这种方式,模型可以学习到丰富的语言知识和语义表示。 然后,在few-shot学习中,我们可以使用预训练的大模型来进行微调。微调是指在一个特定的任务或领域上使用少量标记数据来进一步训练模型。在few-shot学习中,我们通常只有很少的标记样本可用,因此需要利用预训练模型的泛化能力来进行快速学习。 微调的过程通常包括以下几个步骤: 1. 准备数据集:收集并标记少量的样本数据,这些数据用于在特定任务上进行微调。 2. 构建任务描述:为了进行few-shot学习,我们需要提供一个任务描述,包括输入样本和对应的标签。这个任务描述可以是一个简单的问题-回答对,或者是一个分类任务的样本集合。 3. 微调模型:将预训练的大模型与任务描述一起输入,通过梯度下降等优化算法来微调模型参数。微调的目标是使模型在特定任务上表现良好。 4. 评估性能:使用额外的测试数据集来评估微调后模型的性能。这可以帮助我们了解模型在few-shot学习中的效果。 通过这种方式,大模型可以利用其在预训练阶段学到的通用知识和语义表示来进行快速学习,并在少量标记数据的情况下展现出较好的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值