bert参数统计

bert主要的实现是基于transformer的encoder部分,参数维度不同的地方是1)输入多了一项segment embedding,2)中间维度基本是768,以及多头注意力以及前向网络重复了12次。

在统计bert参数的时候,一共要考虑5部分。

1)第一部分:输入层包含三项

token embedding词表大小*768
position embmax_len(512*768)
segment emb两个取值0,1(2*768)

2)第二部分:多头注意力

12个头,其中每个头包括Q\K\V三组参数

768(原始维度)*768/12(每个头的q\k\v的维度)*3*12(头的个数)

然后concat起来所有输出,再变换一下 768*768+768

3)第三部分:Add and Norm

add不需要参数,norm有两个参数需要学习:shift和scale(2*768)

4)第四部分:前向网络

两层全连接网络(W,b):第一层是768*3072(4H)+3072

                              第二层是3072*768+768

5)第五部分:Add and Norm

同第三部分:2*768

总参数: 第一部分+12*(第二+第三+第四+第五部分)

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
BERT文本情感分类模型中融合情感词典来提取特征可以通过以下步骤实现: 1. 预处理数据:将文本数据转换为BERT模型所需的输入格式,包括分词、添加特殊标记(如[CLS]和[SEP])、填充或截断等。 2. 加载预训练的BERT模型:使用已经训练好的BERT模型(如BERT-base或BERT-large)加载预训练权重,并冻结模型的参数。 3. 提取BERT特征:将预处理后的文本输入BERT模型中,获取最后一层隐藏状态的输出,作为文本的特征表示。可以使用BERT模型的中间层输出或者使用CLS标记的隐藏状态作为整个句子的表示。 4. 加载情感词典:加载情感词典,情感词典是一种包含情感词汇及其对应情感极性(如积极、消极、中性)的词典。 5. 提取情感词特征:对每个文本样本,在BERT特征的基础上,使用情感词典来提取情感词特征。可以采用以下方法: - 统计文本中出现的情感词数量; - 统计文本中各种情感极性的数量; - 计算文本中情感词的平均情感极性得分; - 构建情感词特征向量,将情感词的存在与否作为二进制特征。 6. 将BERT特征和情感词特征进行融合:将提取的BERT特征和情感词特征进行拼接或加权融合,得到最终的文本表示。 7. 进行情感分类:使用融合后的文本表示作为输入,结合情感标签进行模型训练和预测,实现情感分类任务。 通过将BERT特征与情感词典特征进行融合,可以有效地利用BERT模型的语义信息和情感词典的情感信息,提升文本情感分类的性能。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

samoyan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值