Transformers中的BertConfig、BertModel详解

目录

一、功能

二、用法

1.导入BertConfig

2. 初始化默认配置

 3.使用配置初始化模型

 使用场景:

1.自定义小型BERT模型

 2.加载预训练模型配置

从 Hugging Face 模型库加载 bert-base-uncased 的默认配置:

 通过 BertConfig,你可以灵活定义 BERT 模型的架构,适应不同任务需求和硬件资源限制


BertConfig 是 Hugging Face Transformers 库中用于定义 BERT 模型结构的配置类,它允许你完全控制模型的超参数(如层数、注意力头数、隐藏层维度等)。

一、功能

1.定义模型架构:通过参数指定BERT模型的结构(如层数,注意力头等等)

2.加载预训练配置项:从已有模型(如bert-base-uncased)中读取默认配置项。

3.自定义配置:修改参数以适配硬件资源(如缩小模型尺寸)。

二、用法

1.导入BertConfig

from transformers import BertConfig, BertModel

2. 初始化默认配置

直接创建BertConfig对象时,会使用BERT-base 的默认参数:

config = BertConfig()
print(config)  # 查看所有配置参数

 3.使用配置初始化模型

model = BertModel(config)  # 根据自定义配置创建新模型

 

参数名类型默认值作用
vocab_sizeint30522词表大小
hidden_sizeint768隐藏层维度
num_hidden_layersint12Transformer 层数
num_attention_headsint12注意力头数
intermediate_sizeint3072FFN 层中间维度
max_position_embeddingsint512最大位置编码长度
hidden_actstr"gelu"激活函数(如 "gelu""relu"

 使用场景:

1.自定义小型BERT模型

# 定义更小的模型配置
config = BertConfig(
    vocab_size=30522,
    hidden_size=256,          # 隐藏层维度缩小到256
    num_hidden_layers=6,      # 仅6层Transformer
    num_attention_heads=8,    # 8个注意力头
    intermediate_size=1024,  # FFN层中间维度缩小
)

model = BertModel(config)     # 初始化自定义模型
print(model)                  # 查看模型结构

 2.加载预训练模型配置

从 Hugging Face 模型库加载 bert-base-uncased 的默认配置:

config = BertConfig.from_pretrained("bert-base-uncased")
model = BertModel.from_pretrained("bert-base-uncased", config=config)

 通过 BertConfig,你可以灵活定义 BERT 模型的架构,适应不同任务需求和硬件资源限制

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值