本地加载roberta-base模型文件,roberta-large同理,
只不过hidden_size从768变为1024,
在该网站下载模型文件:
roberta-base at main (huggingface.co)
所需的有 config.json, merges.txt, pytorch_model.bin(下载后重命名), vocab.json
路径组织结构:
└─model
│ merges.txt
│ vocab.json
│
└─roberta-base
config.json
pytorch_model.bin
此处transformers版本是2.11.0,
不同版本的transformers里import的用法可能不同,所以强调了版本,
可针对自己的版本去看官方文档
from transformers import RobertaTokenizer
vocab_file = 'model/vocab.json'
merges_file = 'model/merges.txt'
tokenizer = RobertaTokenizer(vocab_file, merges_file)
RobertaTokenizer 和 BertTokenizer 处理数据时不一样,
Roberta模型没有token_type_ids,也就是segment_ids
还有 Bert 的数据格式是
- pair of sequences: