Auto tokenizer和Bert tokenizer的区别

文章讲述了AutoTokenizer是HuggingFaceTransformers中的工具,用于自动加载不同模型的tokenizer。BERTTokenizer专为BERT设计,处理未登录词。使用AutoTokenizer简化了在不同模型间切换tokenizer的过程。
摘要由CSDN通过智能技术生成

"AutoTokenizer" 和 "BERT Tokenizer" 是两个不同概念,而不是两种不同的tokenizer。让我为您解释它们的含义:

  1. AutoTokenizer:

    • "AutoTokenizer" 不是一个具体的tokenizer,而是 Hugging Face Transformers 库中提供的一个工具。
    • 这个工具允许用户使用一种通用的方式加载不同的tokenizer,而无需显式指定tokenizer的类别。它根据给定的模型名称自动选择合适的tokenizer。这对于在不同模型之间进行迁移和使用不同tokenizer的任务非常方便。
  2. BERT Tokenizer:

    • BERT Tokenizer 是针对 BERT(Bidirectional Encoder Representations from Transformers)模型设计的特定tokenizer。
    • BERT tokenizer 是一个WordPiece tokenizer,它将输入文本分割成一个个的子词(subword),同时考虑了整个文本的上下文信息。这有助于处理未登录词和构建更丰富的词汇表示。

通常情况下,当使用 Hugging Face Transformers 库时,可以使用 "AutoTokenizer" 来自动选择模型对应的tokenizer,而不必关心具体模型的类型。例如,如果您使用 BERT 模型,"AutoTokenizer.from_pretrained()" 可以自动加载适用于 BERT 的tokenizer。

示例:

from transformers import AutoTokenizer

model_name = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_name)

在上述示例中,"AutoTokenizer.from_pretrained()" 会根据指定的模型名称(例如 "bert-base-uncased")自动选择合适的tokenizer,而无需明确指定 BERT Tokenizer。

  • 7
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值