文本分类半监督问题(九)

本文深入解析mixtext模型的实现代码,重点分析了BertModel4Mix和MixText类。BertModel4Mix主要负责设置模型的mask、token_type和输入id的词嵌入等,而MixText类结合BERT模型,利用反馈网络实现文本分类,并通过全连接层映射到标签类别。在训练过程中,模型接受[batch_size, seq_len, embedding_dim]的输入,经过处理后,通过线性模型预测得到[batch_size, num_labels]的输出作为分类结果。" 123743088,11050885,C语言中的字符串与内存函数详解,"['C语言', '字符串处理', '内存操作']
摘要由CSDN通过智能技术生成

2021SC@SDUSC

下面我们分析mixtext模型的实现代码:

mixtext.py文件:

首先,我们看到,该模型分为三个类,第一个是BertModle4Mix,第二个是BertEncode4Mix,第三个是我们所需要的MixText,从代码细节中可以得知,3⃣️调用1⃣️而1⃣️又调用了2⃣️。​​​​​​​

首先我们来分析BertModel4Mix类:这个类主要是设置模型的一些mask,token_type, 输入id做词嵌入等

首先是它的构造函数,将bert模型改成了mix,其内含有继承bert的编码方法embeddings算法,模型encoder,而Bertpooler是一个全连接加一个函数激活。self.init_weights是初始化参数。

class BertModel4Mix(BertPreTrainedModel):
    def __init__(self, config):
        super(BertModel4Mix, self).__init__(config)
        self.embeddings = BertEmbeddings(config)
        self.encoder = BertEncoder4Mix(config)
        self.pooler = BertPooler(config)

        self.init_weights()
下面的方法是用来修改模型头部的,heads_to_prune参数即为我们需要修改的层的头部名


def _prune_heads(self, heads_to_prune):

    for layer, 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值