利用Transformers自定义一个神经网络结构

### 伪代码
import torch
from torch.optim import lr_scheduler, optimizer
from transformers import BertTokenizer, BertModel, BertPreTrainedModel
from torch import nn


# bert = BertModel('bert-base-uncased')


class BertModelCoustom(BertPreTrainedModel):
    """
    利用transformers定制化神经网络模型
    """

    def __init__(self, config):
        super(BertModelCoustom, self).__init__(config)
        # 导入配置,下面的语句对应后面实例化时候的from_pretrained
        self.bert = BertModel(config)
        
        self.linear = nn.Linear(768, 128)
        self.hidden_dropout = nn.Dropout(config.hidden_dropout_prob)

    def forward(self, x):
        # 定义前向传播
        return self.hidden_dropout(self.linear(self.bert(x)))


tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
bmc = BertModelCoustom.from_pretrained('bert-base-uncased')
for n, p in bmc.linear.named_parameters():
    print("线形层模型参数:")
    print(n)
    print(p)
    break

for n, p in bmc.bert.named_parameters():
    print("Bert模型参数:")
    print(n)
    print(p)
    break

print("hidden_dropout:", bmc.hidden_dropout)

# 调用模型
x = torch.tensor([[1, 2, 3]])
output = bmc(x)
loss = output['loss']
loss.backward()
optimizer.step()
lr_scheduler.step()

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hithithithithit

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值