2021SC@SDUSC
MixText是一种半监督的框架。MixText的核心思想是使用Tmix同时在有标签和无标签数据上。
给定有限的数据集Xl={xl1,...,xln},以及对应着的标签Yl={yl1,...,yln}, 和大量的无标签的数据集Xu={xu1,...,xum},其中yli∈{0,1}C,y是做了one-hot编码,C是y的类别数量,我们的目标利用有标签和无标签的数据训练一个分类器。
提出一个label guessing method,猜测标签的方法,在训练的时候对无标签数据进行生产标签,然后执行TMix训练,然后我们结合Tmix和额外的数据生成技术生成大量增强的数据,这是使算法效果好的一个关键步骤。 最后,
引入了熵最小化损失,使得模型在无标签的数据样本上获取较高的概率,在类别数C较大时也有助于提高性能。
class MixText(nn.Module):
def __init__(self, num_labels=2, mix_option=False):
super(MixText, self).__init__()
if mix_option:
self.bert = BertModel4Mix.from_pretrained('bert-base-uncased')
else:
self.bert = BertModel.from_pretrained('bert-base-uncased')
self.linear = nn.Sequential(nn.Linear(768, 128),
nn.Tanh(),