huggingface加载预训练模型部分API笔记

1.加载预训练模型的词表和tokenizer

# huggingface使用
from transformers import BertTokenizer

# 加载预训练字典和分词方法,本地路径
tokenizer = BertTokenizer.from_pretrained(
    pretrained_model_name_or_path='E:/bert-base-chinese',
    cache_dir=None,
    force_download=False,
)

sents = [
    '选择珠江花园的原因就是方便。',
    '笔记本的键盘确实爽。',
    '房间太小。其它都一般。',
]

2.使用预训练语言模型来编码句子

# 编码两个句子
out = tokenizer.encode(
    text=sents[0],
    text_pair=sents[1],  # 一次编码一个句子对

    # 当句子长度大于max_length时,截断
    truncation=True,

    # 一律补pad到max_length的长度
    padding='max_length',
    add_special_tokens=True,
    max_length=30,
    return_tensors=None,  # 不指定返回的数据类型,默认是list类型
)
#print(out)

print(tokenizer.decode(out))

3.批量编码句子

#  批量编码句子
out = tokenizer.batch_encode_plus(
    batch_text_or_text_pairs=[sents[0],sents[1]],
    add_special_tokens=True,
    # 句子长度大于max_length时,截断
    truncation=True,
    # 一律补零到max_length的长度
    padding='max_length',
    max_length=15,
    # 返回值类型
    return_tensors=None,
    # 返回token_type_ids
    return_token_type_ids=True,
    # 返回attention_mask
    return_attention_mask=True,
    # 返回special_tokens_mask特殊符号标识
    return_special_tokens_mask=True,
    # 返回length标识长度
    return_length=True,
)

for k,v in out.items():
    print(k, ':', v)

#  一次编码多条句子
print(tokenizer.decode(out['input_ids'][0]))
print(tokenizer.decode(out['input_ids'][1]))

4.预训练语言模型的词表操作:增加新词、增加新符号

# 获取tokenizer中的字典,也可以说是词表
zidian = tokenizer.get_vocab()

print('月光' in zidian)

# 向词表中添加新词,“月光”被编码为一个token
tokenizer.add_tokens(new_tokens=['月光'])

# 向词表中添加新符号
tokenizer.add_special_tokens({'eos_token': '[EOS'})

zidian = tokenizer.get_vocab()
print('月光' in zidian)

5.dataset的API

from datasets import load_dataset

# 加载csv格式数据
csv_dataset = load_dataset(
    path='csv',
    data_files='./data/ChnSentiCorp.csv',
    split='train'
)
print(csv_dataset[2])


# 加载json格式数据
json_dataset = load_dataset(
    path='json',
    data_files='./data/ChnSentiCorp.json',
    split='train'
)
print(json_dataset[2])


# 从磁盘加载数据
from datasets import load_from_disk
# 参数是文件夹路径
dataset = load_from_disk('./data/ChnSentiCorp/train')
print(dataset)
# datasets的排序
sorted_dataset = dataset.sort('label')
print(sorted_dataset['label'][:10])
print(sorted_dataset['label'][-10:])
# dataset的打乱
shffled_dataset = sorted_dataset.shuffle(seed=42)
print(shffled_dataset['label'][:10])

# dataset的选择
print(dataset.select([0,10,20,30,40,50]))

# dataset的过滤,参数是一个定义的函数
def f(data):
    return data['text'].startswith('选择')
start_with_ar = dataset.filter(f)
print(start_with_ar['text'])


# # dataset的切分训练集和测试集
dataset.train_test_split(test_size=0.1)
# dataset把数据均匀分配到桶中,取第index份
dataset.shard(num_shards=4, index=0)


# dataset重命名列
dataset.rename_column('text','textA')
# 移除列
dataset.remove_columns(['text'])
# 列数据格式转化
dataset.set_format(type='torch', columns=['label'])


# dataset中的map函数
def f(data):
    data['text'] = 'My sentence:' + data['text']
dataset_map = dataset.map(f)

dataset_map['text'][:5]

# 把数据保存到磁盘上
dataset.save('路径')







  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
加载预训练好的Unet模型可以通过以下步骤实现。首先,你需要下载预训练好的Unet模型并将其放置在与你的代码文件相同的目录下的model文件夹中。然后,你可以使用以下代码加载模型: ```python import torch from torchvision.models import resnet50 model = resnet50(pretrained=False) model.load_state_dict(torch.load('./model/resnet50-19c8e357.pth')) ``` 这段代码会加载预训练好的Unet模型,并将其参数赋值给`model`变量。这样,你就可以直接使用这个模型进行后续的操作,而无需每次重新下载模型参数。\[2\] #### 引用[.reference_title] - *1* *2* [pytorch 中resnet如何快速加载官方提供的预训练模型加载下载好到本地的模型](https://blog.csdn.net/Leo_whj/article/details/105247188)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [学习笔记:Unet学习及训练自己的数据集](https://blog.csdn.net/Qingkaii/article/details/124474485)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

失眠的树亚

你的鼓励是我最大的创作动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值