我是目录!
北航出的一篇很有趣的文章,旨在将对比学习引入到有监督的学习框架中。引入了一个双重对比学习(DualCL)框架,该框架可以在同一空间中同时学习输入样本的特征和分类器的参数。具体来说,DualCL将分类器的参数视为与不同标签相关联的增强样本,然后利用输入样本与增强样本之间的对比学习。通过对5个基准文本分类数据集及其低资源版本的实证研究,验证了DualCL在分类精度方面的改进,并验证了其学习判别表示的能力,尤其是在样本数量较少的前提下,对性能的增益更加明显。
Introduction
无监督对比学习采用了一种损失函数,该函数迫使同一个例子的不同观点的表征趋于相似,而不同例子的表征趋于不同。一个最直观的例子是为某一个样本生成相应的正例以及负例子,让训练模型对正负利做出有效的区分。但是这种类似于聚类的方式总是基于无监督方式的,并且尽管有一些研究【SUPERVISED CONTRASTIVE LEARNING FOR PRE-TRAINED LANGUAGE MODEL FINE-TUNING,ICLR2021】试图将对比学习引入到有监督的NLP任务中,但是相应的研究还比较少。
因此,这篇论文的目的是在有监督的环境下开发一种更自然的对比学习方法,将分类器