llm入门01-Huggingface核心模块的使用

Huggingface的安装

直接pip这个包即可

pip install transformers

在使用时可能会因为网络的原因无法访问huggingface,可以采用科学上网,或者使用hf-mirror镜像即可解决问题。

简单进行一个情感分析
from transformers import pipeline
classifier = pipeline("sentiment-analysis")
classifier(
    [
        "I love YUN.",
        "I hate this movie.",
    ]
)

基本流程

——>Tokenizer——>Model——>Post Processing——>

Raw text–>Input IDs–>Logits–>Predictions

This course is amazing–>[101,2023,2607,2003,6429,999,102]–>[-4.3630,4.6859]–>[POSITIVE:99.98%,NEGATIVE:0.11%]

Tokenizer

Tokenzier进行分词,分字及特殊字符–>对每一个token映射得到一个ID,并且得到一些辅助信息(当前词属于哪个句子。。)

from transformers import AutoTokenizer
model = "distilbert-base-uncased-finetuned-sst-2-english"
tokenizer = AutoTokenizer.from_pretrained(model)
raw_inputs = [
        "I love YUN.",
        "I hate this movie.",
]
inputs = tokenizer(raw_inputs,padding=True,truncation=True,return_tensors="pt")
print(inputs)

在这里插入图片描述

tokenizer.decode([   101,  1045,  2293, 22854,  1012,   102,    0])

在这里插入图片描述

模型的加载
from transformers import AutoModel

checkpoint = "distilbert-base-uncased-finetuned-sst-2-english"
model = AutoModel.from_pretrained(checkpoint)

model

在这里插入图片描述
ps:注意attention_mask的设定,否则会计算padding
下一篇将记录模型基本训练方法

  • 20
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

奥乐米拉oo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值