pipeline内部发生了什么?(PyTorch)

pipeline内部发生了什么?

前言

最近一直疑惑Hugging Face的Transformers库中的pipeline函数的具体是干了什么,多方询问以及翻看了Hugging Face的官方说明,终于是弄清楚了其原理,记录一下~

参考说明

https://www.youtube.com/watch?v=1pedAIvTWXk

过程说明

如图所示,pipeline的内部可以分为三个阶段:预处理、通过模型传递输入和后处理。
在这里插入图片描述

  • 首先,将纯文本转换成模型可以理解的数字,所以使用了一个分词器tokenizer,因此需要使用 AutoTokenizer 类及其 from_pretrained 方法,来保证所有这些预处理都以与模型预训练时完全相同的方式完成。
  • 然后,这些数字通过模型model生成Logits。Transformers 提供了一个 AutoModel 类,使用其中的 from_pretrained 方法。
  • 最后,后处理。因为从模型中获得的作为输出的值本身并不一定有意义,所以后处理就是将这些Logits转换成相应的输出。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值