Python自然语言处理transformers工具包使用

这篇博客详细介绍了如何在Python中运用transformers库进行自然语言处理,包括安装库、加载预训练词典和分词方法、句子编码、字典操作、加载BERT模型以及数据加载,为构建文本分类模型提供了步骤指导。
摘要由CSDN通过智能技术生成

1.安装transformers

pip install transformers

2.加载预训练词典和分词方法

from transformers import BertTokenizer

# 方式一:网络下载词典
tokenizer = BertTokenizer.from_pretrained(
    pretrained_model_name_or_path='bert-base-chinese',
    cache_dir=None,
    force_download=False,
)
# 方式二:本地加载
tokenizer = BertTokenizer.from_pretrained('./bert-base-chinese/BertTokenizer/vocab.txt')

# 获取字典的长度
dictionary = tokenizer.get_vocab()
len(dictionary)

3.句子编码

3.1句子编码

sents = [
    '自然语言处理',
    '第三方工具包',
    '开发的应用在青少年中颇受欢迎'
]
# 编码两个句子
out = tokenizer.encode(
    text = sents[0],
    text_pair = sents[1],
    # 当句子长度大于max_length时,截断
    truncation=True,
    # 一律补pad到max_length长度
    padding='max_length',
    add_special_tokens=True,
    max_length=30,
    return_tensors=None,
)
print(out)
tokenizer.decode(out)

3.2增强编码函数

out = tokenizer.encode_plus(
    text = sents[0],
    text_pair = sents[1],
    truncation = True,
    padding = 'max_length',
    max_length = 30,
    add_special_tokens = True,
    
    # 可取值tf,pt,np,默认为返回list
    return_tensors = None,
    # 返回token_type_ids
    return_token_typ
  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值