python-transformers常用的pipline和常用模型介绍

6 篇文章 0 订阅
1 篇文章 0 订阅

transformers库提供了许多预训练模型和pipeline,可以用于各种自然语言处理任务,如文本分类、命名实体识别、情感分析、问答等 。其中一些常用的pipeline包括:

任务描述模态Pipeline
文本分类为给定的文本序列分配一个标签NLPpipeline(task=“sentiment-analysis”)
文本生成根据给定的提示生成文本NLPpipeline(task=“text-generation”)
命名实体识别为序列里的每个token分配一个标签(人, 组织, 地址等等)NLPpipeline(task=“ner”)
问答系统通过给定的上下文和问题, 在文本中提取答案NLPpipeline(task=“question-answering”)
掩盖填充预测出正确的在序列中被掩盖的tokenNLPpipeline(task=“fill-mask”)
文本摘要为文本序列或文档生成总结NLPpipeline(task=“summarization”)
文本翻译将文本从一种语言翻译为另一种语言NLPpipeline(task=“translation”)
图像分类为图像分配一个标签Computer visionpipeline(task=“image-classification”)
图像分割为图像中每个独立的像素分配标签(支持语义、全景和实例分割)Computer visionpipeline(task=“image-segmentation”)
目标检测预测图像中目标对象的边界框和类别Computer visionpipeline(task=“object-detection”)
音频分类给音频文件分配一个标签Audiopipeline(task=“audio-classification”)
自动语音识别将音频文件中的语音提取为文本Audiopipeline(task=“automatic-speech-recognition”)
视觉问答给定一个图像和一个问题,正确地回答有关图像的问题Multimodalpipeline(task=“vqa”)

transformers库提供了许多预训练模型,可以用于各种自然语言处理任务。这些模型可以分为几类,包括:

语音识别模型:Bert、RoBERTa、DistilBERT等
机器翻译模型:MarianMT、T2T、Roberta等
命名实体识别模型:BERT、RoBERTa、XLM等
文本分类模型:BERT、RoBERTa、XLM等
问答模型:BERT、RoBERTa等

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值