Transformers实际应用案例

首先安装transformers
>pip install transformers
from transformers import pipeline

API例子1–情感分类

首先需要下载并缓存预训练模型

classifier = pipeline('sentiment-analysis')

在这里插入图片描述
尝试输入一段文本,预训练模型会给出相应的情感类别,和相应的置信度分数

classifier('这部电影真的很垃圾,浪费我的时间!!!')
classifier('this movie is really great! I love it')

在这里插入图片描述


API例子二–智能填词(Masked Language Modeling)

下载并缓存预训练模型

unmask = pipeline('fill-mask')

在这里插入图片描述
尝试输入一段有空缺的句子,观察被填补的空缺是否符合真实情况

from pprint import pprint
results1 = unmask(f'{unmask.tokenizer.mask_token} is the most beatiful woman in Harry Potter!')
results2 = unmask(f'{unmask.tokenizer.mask_token} is the best player in the NBA!')
pprint(results1)
pprint(results2)

在这里插入图片描述


API例子三–文本生成

下载并缓存预训练模型

from transformers import pipeline, set_seed
generator = pipeline('text-generation', model='gpt2')
set_seed(42)
generator("Xiao ming loves Xiao Hong secretly,",max_length=100, num_return_sequences=5)

在这里插入图片描述
更多的任务pipeline API可以在下面的网站找到:

https://huggingface.co/transformers/task_summary.html

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,一个具体的应用案例是:使用ChitGPT进行自动回复的客服系统。 具体的实现过程如下: 1. 收集用户的问题和对应的答案,并将其作为训练数据。 2. 使用ChitGPT对训练数据进行模型训练,并保存训练好的模型。 3. 在客服系统中,当用户输入问题时,将其作为ChitGPT的输入,调用训练好的模型进行预测,得到对应的答案。 4. 将ChitGPT预测出的答案返回给用户。 下面是一个简单的示例代码,展示了如何使用ChitGPT进行问答: ```python # 导入必要的库 import torch from transformers import GPT2LMHeadModel, GPT2Tokenizer # 加载训练好的模型和tokenizer model_path = 'path/to/model' tokenizer = GPT2Tokenizer.from_pretrained(model_path) model = GPT2LMHeadModel.from_pretrained(model_path) # 定义回答问题的函数 def answer_question(question): # 将问题转换为模型输入 input_ids = tokenizer.encode(question, return_tensors='pt') # 使用模型预测答案 output = model.generate(input_ids, max_length=50, num_beams=5, no_repeat_ngram_size=2, early_stopping=True) # 将预测结果转换为字符串输出 answer = tokenizer.decode(output[0], skip_special_tokens=True) return answer # 测试回答问题的函数 question = "你觉得机器学习有哪些应用?" answer = answer_question(question) print(answer) ``` 运行上述代码后,ChitGPT就会输出对应的答案。 需要注意的是,ChitGPT的表现取决于训练数据的质量和数量。如果训练数据不足或者质量不高,ChitGPT的表现可能会比较差。因此,在实际应用中,需要对训练数据进行充分的筛选和清洗,以提高ChitGPT的表现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值