transformers微调模型后使用pieline调用无法预测列表文本

本文描述了作者在使用transformers框架的trainer训练文本分类模型时,经过三个epoch后尝试通过pipeline调用model和tokenizer处理列表文本,发现输出结果异常。问题可能涉及模型集成、数据格式或pipeline配置。
摘要由CSDN通过智能技术生成

初学transformers框架
使用trainer简单训练一个文本分类模型三个epoch后
使用piepline调用model 和tokenizer后
发现 传入列表文本后 输出就变得不正常了,为么子哇
如下图
在这里插入图片描述

  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,这是一个很有趣的问题!BERT(Bidirectional Encoder Representations from Transformers)是一种基于Transformer架构的预训练模型,它在自然语言处理领域得到了广泛的应用。对于文本分类任务,我们可以使用BERT预训练模型来提取文本的特征表示,并将这些表示作为输入,通过全连接层进行分类。具体的步骤如下: 1. 下载预训练的BERT模型,在此模型上进行微调。可以选择使用已经训练好的模型,也可以对自己的数据进行微调。 2. 对于每一个输入文本,需要进行一些预处理步骤。首先,将文本转化为标记化的文本,即将每个单词或子单词转化为一个唯一的标记。然后,将每个标记转化为对应的标记ID,并添加一些特殊的标记,如[CLS]和[SEP]。 3. 将标记化的文本输入到BERT模型中,获取每个标记的特征表示。对于分类任务,通常使用最后一个隐藏层的输出,即[CLS]标记所对应的特征表示。 4. 将特征表示输入到一个全连接层中,进行分类。可以使用softmax函数将输出转化为类别概率。 5. 使用交叉熵损失函数进行训练,并根据验证集的表现进行调参。 6. 在测试阶段,输入文本模型中,获取输出概率,选择概率最大的类别作为预测结果。 以上就是使用BERT预训练模型+微调进行文本分类的基本步骤。需要注意的是,由于BERT模型的复杂性,需要较大的计算资源和时间。同时,在微调阶段需要对超参数进行调参,以达到最优的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值