数据不足,如何监督学习?全面梳理半监督方法

‍作者丨Lilian Weng  编译丨丛末  编辑丨陈彩娴  来源  AI科技评论

现实应用中,数据易得,而有标签的数据少有。

一般而言,当监督学习任务面临标签数据不足问题时,可以考虑以下四种解决办法:

1.预训练+微调:首先在一个大规模无监督数据语料库上对一个强大的任务无关模型进行预训练(例如通过自监督学习在自由文本上对语言模型进行预训练,或者在无标签图像上对视觉模型进行预训练),之后再使用一小组标签样本在下游任务上对该模型进行微调。

2.半监督学习:同时从标签样本和无标签样本中学习,研究者使用该方法在视觉任务上进行了大量研究。

3.主动学习:标注成本高,即便成本预算有限,也希望尽可能收集更多的标签数据。主动学习学习选择最有价值的无标签样本,并在接下来的收集过程中收集此类数据,在预算有限的情况下,帮助模型尽可能达到预期效果。

4.预训练+数据集自动生成:给定一个功能强大的预训练模型,可以利用该模型来自动生成更多得多的标签样本。受小样本学习大获成功的驱动,该方法在语言领域的应用尤其普遍。

本文全面介绍半监督学习这一方法,作者为OpenAI研究员Lilian Weng,博客地址:https://lilianweng.github.io/

1

什么是半监督学习?

半监督学习同时使用标签数据和无标签数据来训练模型。

有趣的是,现有关于半监督学习的文献大多集中在视觉任务上。而预训练+微调方法才是语言任务中更常见的范式。

本文所提到的所有方法的损失,都由两部分构成:dea45d42d15bed58b8d60151bb410512.png。其中监督损失584bfeff00adf476e9ef723be872549b.png

在样本全部为标签样本的情况下非常容易计算出来。我们需要重点关注如何设计无监督损失ee832a049b4eb035fa2da7a0f65149b2.png。加权项b8b05171a78339f134dc6766c7168364.png通常选择使用斜坡函数,其中t是训练步数,随着训练次数的增加,674229a02f609a55c278bd32df112c6b.png的占比提升。

声明:此文并不覆盖所有半监督方法,仅聚焦于模型架构调优方面的。关于在半监督学习中,如何使用生成模型和基于图的方法,可以参考《深度半监督学习全览》(An Overview of Deep Semi-Supervised Learning)这篇论文。

2

符号说明表

符号

含义

350036ef012f57e040ee278b8bdbfd8b.png

唯一标签的数量。

8fe742b4113a05220d35867ab7277cdd.png

标签数据集,其中a6f6e8d6a0c31da576c3f4d15c5f7363.png是真实标签的独热表示。

1ed1a0dd435bc133c8a7867a4be4be6f.png

无标签数据集。

93444eb4d577222ba51adb12dfb93a39.png

整个数据集,包括标签样本和无标签样本。

39ccee99524af5edfbed58818752d3ed.png

可以表示无标签样本, 也可以表示标签样本。

4d0db81f600280c5973aab6e73cc3e2b.png

经过增强处理的无标签样本或标签样本。

3f1e81e09d691d3ce57a40c806a11fd2.png

第i个样本。

f8749865594ca29cf392d239c9120d14.png

分别表示损失,监督损失,无监督损失

548424807fd9872d79d9279fed033083.png

无监督损失权重,随着训练步数增加而增加。

2b2c469ed391efbf4a8b937849d49eea.png

给定输入情况下,标签数据集的条件概率。

9003278e20a9a19a288ddc5b5a86bc42.png

使用加权θ生成的神经网络,即期望训练出的模型。

664a1dc66765a78f4f773298a573a202.png

逻辑函数f的输出值的向量。

e88ea414a7ec5bfa85b9e721b8971ba0.png

预测的标签分布。

a140f0049926687c40ab651c51dbeded.png

两个分布间的距离函数,例如均方误差、交叉熵、KL散度等。

e327960c398663c37dd96f99ff1b4346.png

Teacher 模型权重的移动平均线加权超参数。

3e34ef8adb2f6feb904e9be2b9c6d7e5.png

α为混合样本的系数 ,38e868ec46c810d6c56378c2faed993a.png

7b99c527dc80b09a2e46b68ad3baccbe.png

锐化预测分布的温度。

db173686884e822a7614d5476805b3f5.png

选择合格的预测结果的置信度阈值。

3

假设

在已有研究文献中,讨论了以下几种假设来支撑对半监督学习方法中的某些设计进行决策。

假设1:平滑度假设(Smoothness Assumptions)

如果两个数据样本在特征空间的高密度区域接近,它们的标签应该会相同或非常相似。

假设2:聚类假设(Cluster Assumptions)

特征空间既有密集区域,也有稀疏区域。密集分组的数据点很自然地形成聚类。同一聚类中的样本应具有相同的标签。这是对假设1的一个小扩展。

假设3:低密度分离假设(Low-density Separation Assumptions)

类之间的决策边界往往位于稀疏的低密度区域,因为如果不这样的话,决策边界就会将高密度聚类分割为分别对应两个聚类的两个类,这就会导致假设1和假设2都失效。

假设4:流形假设(Manifold Assumptions)

高维数据往往位于低维流形上。尽管现实世界的数据可能是在非常高的维度上被观察到的(例如,真实世界的物体/场景的图像),但它们实际上可以被更低维的流形捕获,这种低维流形上会捕获数据的某些属性,并将一些相似的数据点进行紧密组合(例如真实世界的物体/场景的图像,并不是源自于所有像素组合的均匀分布)。这就使得模型能够学习一种更有效的表征方法去发现和评估无标签数据点之间的相似性。这也是表征学习的基础。关于此假设,更详细的阐述可参考《如何理解半监督学习中的流行假设》这篇文章。

链接:https://stats.stackexchange.com/questions/66939/what-is-the-manifold-assumption-in-semi-supervised-learning

4

一致性正则化(Consistency Regularization)

一致性正则化,也叫一致性训练,假设给定相同输入,神经网络中的随机性(例如使用 Dropout算法)或数据增强转换不会更改模型预测。本节中的每个方法都有一个一致性正则化损失:6b698279b3bd68896310be2b7dc2decc.png

SimCLR、BYOL、SimCSE 等多个自监督学习方法都采用了这一思想。相同样本的不同增强版本,产生的表征都相同。语言建模中的交叉视图训练(Cross-view training )和自监督学习中的多视图学习(Multi-view learning)的研究动机相同。

1.Π模型

0b5b0f1b0d36464568ae20d123a9ce78.png

图1:Π-模型概览。同一个输入经过不同的随机增强和 dropout掩膜的扰动产生两个版本,通过网络得到两个输出,Π-模型预测这两个输出是一致的。(图片来源:Laine 、 Aila  2017发表的论文《半监督学习的时序集成》 )

Sajjadi 等人在2016年发表的论文《深度半监督学习的随机变换和扰动正则化》(Regularization With Stochastic Transformations and Perturbations for Deep Semi-Supervised Learning)中,提出了一种无监督学习损失,它能够将同一数据点经过随机变换(例如dropout、随机最大池化)产生两个版本,并在通过网络后输出的两个结果之间的差异最小化。由于其标签没有被明确使用,所以该损失可以应用到无标签数据集。Laine 、Aila 后来在2017年发表的论文《半监督学习的时序集成》(Temporal Ensembling for Semi-Supervised Learning)中,为这种处理方式取了一个名字,叫做 Π模型。

81a790d10c223ef3e7e4096d1420a444.png

其中,fd3eb58a937e178c97e835fc49581dd7.png指同一个神经网络应用不同的随机增强或dropout掩膜的取值。该损失使用整个数据集。

2.时序集成(Temporal ensembling)

3a6c803e37a6dc7ca1bbe9f557e5e99b.png

图2:时序集成概览。其学习目标是对每个样本的指数移动平均值( EMA)做出标签预测。(图片来源:Laine 、 Aila  2017发表的论文《半监督学习的时序集成》)

Π模型需要每个样本通过神经网络两次,这就使得计算成本增加一倍。为了减少成本,时序集成模型持续将每个训练样本6254b041c705659e366729c7df803143.png的实时模型预测的指数移动平均值(EMA)作为学习目标,EMA 在每轮迭代中仅需计算和更新一次。由于时序集成模型的输出c428e549b0c7f4539335730aff0e0762.png被初始化为0,因而除以c6a58764d7bad33faa7b26f1df9074ec.png进行归一化来纠正这一启动偏差。出于同一原因,Adam 优化器也有这样的偏差纠正项。

94c4c782d7df5e85598775f3a01b9a42.png

其中d09fd5f8a3590bad0b72ce0cd5e055c4.png是在第t轮迭代中的集成预测,7f64689a61bb59145c017cd4f03f0b9a.png是在当前回合的模型预测。需要注意的是,由于7cdad25fa9f76383902858db9b533be9.png=0,进行偏差纠正后,283d1ae6b5eefb824228be09c9102d46.png就完全等于在第1轮迭代中的模型预测值1b2948116e18de358fa0858e8fec6f67.png

3.均值教师(Mean teachers)

5d9760857b25aad4c24a229b6879a75a.png

图3:Mean Teacher 框架概览(图片来源:Tarvaninen、 Valpola在2017年发表的论文《均值教师模型是表现更好的模范模型:加权平均一致性目标优化半监督深度学习结果》)

时序集成模型将追踪每一个训练样本的标签预测的指数移动平均值作为学习目标。然而,这种标签预测仅在每一次迭代中发生变化,当训练数据集很大时,这种方法就显得冗杂。

为了克服目标更新速度慢的问题,Tarvaninen、 Valpola在2017年发表的论文《均值教师模型是表现更好的模范模型:加权平均一致性目标优化半监督深度学习结果》(Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results)中,提出了Mean Teacher算法,该算法通过跟踪模型权值的移动平均值而不是模型输出来更新目标。权重为θ的原始模型叫做Student模型,将权重为连续多个Student模型的移动平均权重θ′的模型,称为Mean Teacher模型:2bff7740277046eed81f2358eba5dae2.png

一致性正则化损失是Student模型和Teacher 模型的预测之间的距离,并且该差距应该最小化。Mean Teacher 模型能够提供比Student模型更准确的预测。该结论在实证实验中得到了证实,如图 4 所示。

659dbb6e686071d9ae0f61636c3649cf.png

图4:Π 模型和 Mean Teacher模型在 SVHN 数据集上的分类误差。Mean Teacher模型(用橙线表示)比Student模型(用蓝线表示)的表现更好。(图片来源:Tarvaninen、 Valpola在2017年发表的论文《均值教师模型是表现更好的模范模型:加权平均一致性目标优化半监督深度学习结果》)

根据其消融研究:

  • 输入增强方法(例如,输入图像的随机翻转、高斯噪声)或对Student模型进行dropout处理对于模型实现良好的性能是必要的。Teacher模式不需要进行dropout处理。

  • 性能对指数移动平均值的衰减超参数β敏感。一个比较好的策略是在增长阶段使用较小的β=0.99,在后期Student模型改进放缓时使用较大的β=0.999。

  • 结果发现,一致性成本函数的均方误差(MSE)比KL发散等其他成本函数的表现更好。

4.将噪声样本作为学习目标

最近的几种一致性训练方法学习将原始的无标签样本与其相应的增强版本之间的预测差异最小化。这种思路与 Π 模型非常相似,但其一致性正则化损失仅适用于无标签数据。

58326ebf333533671841193f02102e9a.png

图5:使用噪声样本的一致性训练

在Goodfellow等人于2014年发表的论文《解释和利用对抗性样本》(Explaining and Harnessing Adversarial Examples)中,对抗性训练(Adversarial Training)将对抗性噪声应用到输入上,并训练模型使其对此类对抗性攻击具有鲁棒性。该方法在监督学习的应用公式如下:

5a3796aec8d4d766bdaba8278e483c5d.png

其中80ca460c88568d026a8a71bdf9551ec4.png是真实分布,近似于真值标签的独热编码,1d906278965335b4901721ef55a25e3d.png是模型预测,2bafeb273978a4111c825dabb968515f.png是计算两个分布之间差异的距离函数。

Miyato 等人在2018年发表的论文《虚拟对抗性训练:对监督和半监督方法都适用的正则化方法》(Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning)中提出虚拟对抗性训练(Virtual Adversarial Training,VAT),该方法是对抗性训练思想在半监督学习领域的一个延伸。由于c825bc53e3f21364f75745e9548ffdf2.png是未知的,VAT 将该未知项替换为当前权重设定为5bf70130fb31ad02d6f64115ec1807bf.png时,当前模型对原始输入的预测。需要注意的是,2877fa0ed8a54ddb53a4699ecee14de2.png是模型权重的的固定值,因而在e297e8aa2f5843e6cb63d29deeb87982.png上不会进行梯度更新。

3e8dd1c1ace08d9b24dde59322fb6fc4.png

VAT 损失既适用于标签样本,也适用于无标签样本。它计算的是当前模型在每个数据点的预测流形的负平滑度。对这种损失进行优化能够让预测流形更加平滑。

Verma等人在2019年论文《半监督学习的插值一致性训练》(Interpolation Consistency Training for Semi-Supervised Learning)中提出插值一致性训练(Interpolation Consistency Training,ICT),通过添加更多数据点的插值来强化数据集,让模型预测和对应标签的插值尽可能一致。Hongyi Zhang等人在2018年的论文《Mixup:超越经验风险最小化》(Mixup: Beyond Empirical Risk Minimization)中提出MixUp方法,即通过简单的加权和来将两个图像进行混合处理。插值一致性训练即根据这一思路,让预测模型为一个混合样本生成标签,来匹配对应输入的预测插值:

683954accb0a61b6c8a2d944a35e015f.png

其中f03d0609eee2a7ed00bbe02b7ff9c117.png表示Mean Teacher 模型的θ的移动平均值。

91f13975c54b04b64a09f88fdfdbb86c.png

图6:插值一致性训练概览。使用MixUp方法生成更多以插值标签作为学习目标的插值样本。(图片来源:Verma等人在2019年论文《半监督学习的插值一致性训练》)

由于两个随机选择的无标签样本属于不同类别的概率很高(例如ImageNet中就有1000个目标类别),因此在两个随机无标签样本之间应用Mixup方法,就很可能生成在决策边界附近的插值。根据低密度分离(Low-density Separation)假设,决策边界往往位于低密度区域。

0a1c4ad945b736e18782a64c34eb3382.png

其中1999daa3f87228bc7b4b3832f235d5d4.png表示θ的移动平均值。

与VAT类似,Xie 等人在2020年的论文《一致性训练的无监督数据增强》(Unsupervised Data Augmentation for Consistency Training)中提出的无监督数据增强(Unsupervised Data Augmentation,UDA),学习给无标签样本和增强样本预测相同的输出。UDA特别聚焦于研究噪声的“质量”如何通过一致性训练来影响半监督学习的性能。要想生成有意义和有效的噪声样本,使用先进的数据增强方法至关重要。良好的数据增强方法应该能够产生有效的(即不改变标签)和多样的噪声,并带有有针对性的归纳偏置(Inductive Biases)。

针对图像领域,UDA 采用的是RandAugment方法,该方法由Cubuk 等人在2019年的论文《RandAugment: 减少搜索空间的实用型自动数据增强方法》(RandAugment: Practical automated data augmentation with a reduced search space)中提出。它对Python图像处理库PIL中可用的增强操作进行统一采样,无需学习或优化,因此比使用AutoAugment方法,成本要便宜得多。

e7d49b7ad37cc0b3b118db1ef513201d.png

图7:CIFAR-10分类中各种半监督学习方法的比较。在未经过RandAugment处理的50000个样本进行训练时,Wide-ResNet-28-2和PyramidNet+ShakeDrop 在完全监督下,错误率分别为**5.4**和**2.7**。

针对语言领域,UDA结合使用回译( back-translation)和基于TF-IDF的词替换(word replacement)两种方法。回译保留了高层次意义,但是不保留某些词本身,而基于TF-IDF的词替换则去掉TF-IDF分数较低的无信息性词。在语言任务的实验中,研究者发现发现UDA与迁移学习和表征学习是互补的;例如,在域内无标签数据上对BERT模型进行微调(即图8中的24f558215d725f4efd422b8a51e807e6.png),能进一步提升性能。

36b9eff13f7b79c913cdcd6c5bd22149.png

图8:不同文本分类任务上,无监督数据增强方法采用不同初始化设置的比较。(图片来源:Xie 等人在2020年的论文《一致性训练的无监督数据增强》)

在计算 311dfb1362cf2c7f00be501a8ebeec03.png 时,UDA可以通过使用以下三种训练技巧来优化结果:

  • 低置信度掩膜(Low confidence masking):如果样本的预测置信度低于阈值30a388a0e64de6a1d04d10ae7a8976d7.png,则对其进行掩膜处理。

  • 锐化预测分布(Sharpening Prediction Distribution):在Softmax中使用低温e0c2a01c3f51bb11aae47309f568f866.png来对预测概率分布进行锐化。

  • 域内数据过滤(In-Domain Data Filtration):为了从大的域外数据集中提取更多的域内数据 ,研究人员训练一个分类器来预测域内标签,然后保留具有高置信度预测的样本作为域内候选样本。

0e3787186e56cf686f47852944161763.png

其中,bd25196d25007a2b2303753f9ebc1c9a.png是模型权重的固定值,与VAT中的06a9c6c9b8ccbed1847c065d112c721f.png一样,因而没有梯度更新,099b232ae0ae50adae10da7ff44fc666.png是经过增强的数据点,f6f3aeeaefdc6656dc0345f399be2e10.png是预测置信度阈值,fa4e6f677b1d37e4a4a1557543a4a224.png是分布锐化温度。

5

伪标签(Pseudo Labeling)

Lee等人在2013年的论文《伪标签:深度神经网络的简单而高效的半监督学习方法》(Pseudo-Label : The Simple and Efficient Semi-Supervised Learning Method for Deep Neural Networks)中提出伪标签,它基于当前模型预测的最大的softmax概率,将伪标签分配给无标签样本,然后在完全监督设置下,同时在标签样本和无标签样本上训练模型。

为什么伪标签能起作用?伪标签实际上相当于熵正则化,它将无标签数据的类概率的条件熵( conditional entropy )最小化,从而实现类之间的低密度分离。换句话说,预测的类概率实际上是计算类重叠,最小化熵相当于减少类重叠,从而降低密度分离。

415335851e921bf46eecaee85d2f2082.png

图9:(a )表示仅使用600 个标签数据对模型训练后,在MINIST 测试集上进行测试输出的t-SNE可视化结果,(b)表示使用600 个标签数据以及60000 个无标签数据的伪标签对模型进行训练后,在MINIST 测试集上进行测试输出的t-SNE可视化结果。伪标签能够使学到的嵌入空间实现更好的分离效果。(图片来源:Lee等人在2013年的论文《伪标签:深度神经网络的简单而高效的半监督学习方法》)

使用伪标签进行训练自然是一个迭代过程。这里将生成伪标签的模型叫做Teacher 模型,将使用伪标签学习的模型称作Student 模型。

1.标签传播(Label propagation)

Iscen等人在2019年发表的论文《深度半监督学习的标签传播》(Label Propagation for Deep Semi-supervised Learning)中提出标签传播概念,是一种基于特征嵌入在样本之间构建相似图的思想。接着将伪标签从已知样本“扩散”到传播权重与图中成对相似性得分成正比的无标签样本。从概念上来看,它类似于k-NN分类器,两者都存在无法很好地扩展到大型数据集上的问题。

d633c085e3e76e3278e8f8e507222e4b.png

图10:标签传播工作原理示意图。(图片来源:Iscen等人在2019年发表的论文《深度半监督学习的标签传播》)

2.自训练(Self-Training)

自训练不是一个新概念,Scudder等人在1965年发表的论文《自适应模式识别机器的错误概率》(Probability of error of some adaptive pattern-recognition machines)、 Nigram & Ghani等人在CIKM 2000 上发表的论文《分析协同训练的有效性和适用性》(Analyzing the Effectiveness and Applicability of Co-trainin)都涉及到这个概念。它是一种迭代算法,轮番进行以下两步操作,直到每个无标签样本都匹配到一个标签:

  • 首先,它在标签数据上构建分类器。

  • 接着,它使用该分类器预测无标签数据的标签,并将置信度最高的标签转换为标签样本。

Xie 等人在2020年发表的论文《使用噪声学生进行自训练来优化 ImageNet 分类》(Self-training with Noisy Student improves ImageNet classification)中,将自训练应用于深度学习,并取得了巨大成果。在ImageNet分类任务中,研究者首先训练了一个EfficientNet模型作为Teacher模型,为3亿张无标签图像生成伪标签,然后训练了一个更大的EfficientNet模型作为Student 模型,以学习真实标签图像和伪标签图像。在他们的实验设置中,一个关键的元素是在Student模型训练期间加入噪声,而Teacher模型生成伪标签过程则不加入噪声来。因此,他们的方法被称为“噪声学生(Noisy Student )”,即使用随机深度、dropout和RandAugment方法给Student 模型加入噪声。Student 模型表现得比Teacher 模型更好,很大程度上就是加入噪声带来的好处。添加的噪声具有复合效应,可以促使模型在标签数据和无标签数据上产生的决策边界变得平滑。

Student 模型自训练还有其他几个重要的技术设置,包括:

  • Student 模型加应该足够大(即比Teacher 模型大),以适用于更多数据。

  • 加入噪声的Student 模型应该结合数据平衡方法,这对于平衡每个类重的伪标签图像的数量尤其重要。

  • 软伪标签比硬标签效果更好。

加入噪声的Student 模型还提高了防御 FGSM(快速梯度符号攻击,其使用输入数据的损失梯度,并调整输入数据从而最大化损失)的对抗鲁棒性,即便该模型未针对对抗鲁棒性进行优化。

Du 等人在2020年的论文《自训练优化自然语言理解的预训练》(Self-training Improves Pre-training for Natural Language Understanding)中提出SentAugment 方法,旨在解决语言领域进行自训练时,域内无标签数据不足的问题。它依靠句向量从大型语料库中找到无标签的域内样本,并使用检索到的句子进行自训练。

3.减小确认偏误(Confirmation Bias)

确认偏误是由于Teacher模型还不够成熟导致提供错误的伪标签的问题。对错误标签进行过拟合可能并不会产生更好的Student模型。

为了减小确认偏误,Eric Arazo等人在论文《深度半监督学习中的伪标签和确认偏误》(Pseudo-Labeling and Confirmation Bias in Deep Semi-Supervised Learning)中提出了两种新方法。

一种是采用软标签的Mixup方法,给定c1195c00c155b7ebc9c28e36ab9bf571.png两个样本和它们对应的真标签和伪标签d0970689d2d96d70f042a1b89c7fc373.png,插值标签方程可以转化为softmax输出的交叉熵损失:

328a4f39ae876e9fe0cd7dc04a9322c0.png

如果标签样本太少,使用Mixup方法还不够。因此论文作者通过对标签样本进行过采样,从而对每个小批量中的标签样本设置最小数量。这比对标签样本进行权重补偿效果更好,因为它会更频繁地更新,而不是频次少的更大幅度的更新——这种更新其实更不稳定。

与一致性正则化一样,数据增强和dropout方法对于发挥伪标签的作用,也很重要。

Hieu Pham等人在2021年论文《元伪标签》(Meta Pseudo Labels)中提出元伪标签,根据Student模型对在标签数据集上表现的反馈,不断调整Teacher模型。Teacher模型和Student模型同步进行训练,Teacher模型学习生成更好的伪标签,Student模型从伪标签中学习。

将Teacher模型和Student模型的权重分别设为1b8bf82ee12ee6fd10ca79c332950736.png038ade7fe727cbef570fee4d450383e8.png,Student模型在标签样本上的损失定义为ea474283721f3c3428c9099d9067946e.png的函数1c47195c7be0a68ae048d95234871c81.png,并倾向于通过优化Teacher模型来相应地最小化这一损失。

b0304cad0c6cada474c802b7160c2e7f.png

然而,优化上述方程并非易事。借用MAML (模型无关的元学习, Model-Agnostic Meta-Learnin)的思路,它近似于在进行多步dda9c027dc861250fdd37972de2757ed.png510eaeace365d5fe533f88523adcd83e.png计算的同时,对904e3167447548a5e5459d2f26fcf5d3.png进行一步梯度更新。

8d80f91beece942a71378424c8c66266.png

由于使用的是软伪标签,上述目标函数是可微函数。但是如果使用硬伪标签,则是不可微函数,因此需要用到REINFORCE等强化学习方法。

优化过程是在两个模型之间的交替进行的:

  • Student模型更新:给定一批无标签样本f06272c8227ea107bed52f9f3c366a4d.png,我们可以通过函数d43f792cd05db7edcbf4905634948af9.png生成伪标签,并使用一步随机梯度下降优化f48ae89aaf290173e9bf746894f6f66c.pngc11b8f670c045d4a33d86f0c926ba5b3.png

  • Teacher模型更新:给定一批标签样本9b656924bb2d1654228a458bbabbf63e.png,我们重复使用Student模型的更新来优化4801725fd65561f5b78c342c88ea900f.png20dcdbda456c1824d253b8b2a740a367.png。此外,还将UDA对象应用于Teacher模型以兼并一致性正则化。

b4f65371e88095c7b1cf40687e6aae54.png

图11:元伪标签与其他半监督或自监督学习方法在图像分类任务中的性能比较。(图片来源:Hieu Pham等人在2021年论文《元伪标签》)

6

一致性正则化+伪标签

可以将一致性正则化、伪标签两种方法结合起来,应用到半监督学习。 

1.MixMatch

Berthelot等人在2019年的论文《MixMatch: 一种面向半监督学习的整体性方法》(MixMatch: A Holistic Approach to Semi-Supervised Learning)中提出的MixMatch 方法,是一种应用于半监督学习的整体性方法,它通过整合以下方法来使用无标签数据:

  • 一致性正则化(Consistency regularization):让模型对受到扰动的无标签样本输出相同的预测。

  • 熵最小化(Entropy minimization):让模型对无标签数据输出置信预测。

  • MixUp 增强:让模型在样本之间进行线性行为。

给定一批标签数据93fa1258fcf77620b2ce6e91d02cfcf2.png和无标签数据95375ddd9dc55e430809e9da7f14fbfb.png,通过4406eb53c123cc1320ab14bd5d7d2b24.png运算得到其增强版本,9eea109ba856b1c2bb671240ecc03aa4.png251c01224d92288f5d7f61d265b1b010.png分别表示增强样本和给无标签样本预测到的标签。

 6e03bbe789779e0df1df9552ba7baf57.png

其中5dfaecc4b21a5059179a567319884c1a.png是锐化温度,用来减少猜测到的标签重叠;K 是每一个无标签样本生成的增强版本个数;6d1f8731ad9c07b52a3b2a7f55c8fdbd.png是MixMatch 函数中的参数。

对于每一个bbaf9665f12ac8a093a5a84de6efd85b.png,MixMatch都会生成K个增强版本,4ecf9a2dbe2349d26bd17f0dd892a671.png等于k分别为1,....,K的d5971e9a07764652d30573e138476b57.png的增强版本,模型基于平均值0e93cce5fbb13225fe661e9de9987c73.png来猜测伪标签。

9e05119f8fa281e584ffcbed633862cd.png

图12:MixMatch中的“标签猜测”过程:K 个增强无标签样本的平均值,修正预测的边际分布,最终使分布锐化锐。(图片来源:Berthelot等人在2019年的论文《MixMatch: 一种面向半监督学习的整体性方法》)

根据该论文的消融研究,对无标签数据进行 MixUp增强尤其重要。去除伪标签分布上的温度锐化会严重影响性能。对于标签猜测,计算无标签数据多个增强版本的平均值也是必不可少的。

Berthelot等人在2020年的论文《ReMixMatch:使用分布对齐和增强锚定进行半监督学习》(ReMixMatch: Semi-Supervised Learning with Distribution Alignment and Augmentation Anchoring)中,进一步提出ReMixMatch方法,通过引入以下两种新机制来改进MixMatch方法:

d46253a706533c6c6ca9bafc1184cdcf.png

图13:ReMixMatch 方法对MixMatch方法的两项改进的图示。(图片来源:

Berthelot等人在2020年的论文《ReMixMatch:使用分布对齐和增强锚定进行半监督学习》)

1.分布对齐(Distribution alignment)。该方法让边缘分布529bb5c388bc58e6ae402624fdae41a5.png与真值标签的边缘分布相近。设定2062d0a9ee6b0873910380a460b1c731.png为真值标签的类分布,94c0210fd4bb5c8981f4a6eb90f198db.png是无标签数据上的预测类分布的移动平均。模型对无标签样本的预测2b48b552b1d46dbff59bbde6153f0ec1.png经过归一化处理为91a3892e1137d63ff9598e9c3a609959.png以匹配真实边缘分布。

需要注意的是,如果边际分布不一致,熵最小化则不是一个有用的目标。并且,有标签和无标签数据上的类分布相互匹配的假设确实太绝对了,在现实环境中不一定是正确的。

2.增强锚定(Augmentation Anchoring)。给定一个无标签样本,首先会生成一个弱增强的“锚定”版本,接着使用 CTAugment (控制理论增强,Control Theory Augment)方法对K个强增强版本计算平均值。CTAugment仅仅对讲模型预测保持在网络容差范围内的增强版本进行采样。

ReMixMatch损失由以下几个项组成:

  • 应用了数据增强和Mixup方法的监督损失

  • 应用了数据增强和Mixup方法却使用伪标签作为目标的无监督损失

  • 不使用Mixup方法情况下,单个强增强的无标签图像的交叉熵损失

  • 自监督学习中的旋转损失( rotation loss)。

2.DivideMix

Junnan Li 等人在2020年论文《DivideMix:使用噪声标签学习来实现半监督学习》(DivideMix: Learning with Noisy Labels as Semi-supervised Learning)中提出DivideMix方法,它将半监督学习与使用噪声标签的学习(Learning with noisy labels,LNL)相结合。它通过高斯混合模型(GMM)对每个样本损失分布进行建模,将训练数据动态划分为含有干净样本的标签数据集和含有噪声样本的无标签数据集。

按照Arazo等人在2019年论文《无监督标签噪声建模和损失修正》(Unsupervised Label Noise Modeling and Loss Correction)中提出的想法,他们在每个样本交叉熵损失上拟合了一个二元高斯混合模型。干净样本期望比噪声样本更快得到更低的损失。更小均值的高斯混合模型对应干净标签的聚类,这里将其表示为c。如果高斯混合模型的后验概率be378c27dca3b57226f6b144beace62a.png(即样本属于干净样本集的概率)大于阈值,则该样本被视为干净样本,否则被视为噪声样本。

数据进行聚类的过程叫做协同划分(co-divide)。为了避免确认偏误,DividImax方法同时训练两个交叉的网络,其中每个网络都使用来自另一个网络的数据集分离出来的部分,类似于双 Q 学习 (Double Q-Learning) 的工作原理。

7ae7511a971ef41cd4eea0afed3f7f07.png

‎图14:DivideMix独立训练两个网络,以减少确认偏误。两个网络同时运行‎协同划分,、协同细化 和协同猜测。(图片来源:Junnan Li 等人在2020年论文《DivideMix:使用噪声标签学习来实现半监督学习》)

与MixMatch相比,DivideMix有一个额外的用于处理噪音样本的‎co-divide步骤,并在训练期间做了如下改进:

标签协同细化(Label co-refinement:):它将真值标签be31b4aa3b464ca66afa6ab923ed71e4.png与网络预测d18755da1560c9940f96db74a14d3195.png进行线性组合,其中0412513b997ddfc4a4cc4da2bc61b995.png是另一个网络产生干净数据集概率 8fd6bc00832b368620487eed43ab9a60.png条件下,acf9b5a2462e9cadebce3177a3c3c427.png多个增强版本的平均值。

标签协同猜测(Label co-guessing):它对两个模型对无标签数据样本的预测进行平均。

a3daca046291d5d928d25ba336684573.png

图15:DivideMix算法。(图片来源:Junnan Li 等人在2020年论文《DivideMix:使用噪声标签学习来实现半监督学习》) 

3.FixMatch

Sohn等人在2020年的论文《FixMatch: 使用一致性和置信度简化半监督学习》(FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence)中提出的FixMatch方法,通过弱增强方法在无标签样本上生成伪标签,并且只保持高置信度的预测。在这里,弱增强和高置信度过滤都有助于生成高质量的可信伪标签目标。然后,FixMatch在给定一个经过大幅增强的样本情况下,预测这些伪标签。

b93bf640a3ef2f0034dca90c3980c7ac.png图16:FixMatch方法的工作原理图示。(图片来源:Sohn等人在2020年的论文《FixMatch: 使用一致性和置信度简化半监督学习》) 

6cb064b26f889ae584e641b502fa30e3.png

其中654b47fafa1c7bf7e755b1f1fc598724.png是无标签样本的伪标签;9caa4314c3d8f7f9d271d21cfcdf6a6e.png是决定8a018959132351c90a2daada3d30fd51.png115e6de5ebffaaafe6e42b72e01aa879.png的相对大小的超参数。

弱增强a76a85578a90fdebc237203fbd88f9b6.png:标准的平移和变换增强。

强增强9aa02bc7f7b205fcba9c69eb1f9d4c5c.png:AutoAugment、 Cutout、 RandAugment和 CTAugment等数据增强方法。

13d35921dc5ac8879d52eaa0520d93cd.png

图17:FixMatch和其他几种半监督学习方法在图像分类任务上的性能。(图片来源:Sohn等人在2020年的论文《FixMatch: 使用一致性和置信度简化半监督学习》) 

根据FixMatch的消融研究,

  • 当使用阈值τ时,使用温度参数T对锐化预测分布不会产生显著影响。

  • Cutout和CTAugment是强增强方法,对模型达到良好的性能“功不可没”。

  • 当标签猜测使用强增强来取代弱增强时,模型在训练早期就发散了。如果舍弃弱增强,模型就会过度拟合猜测的标签。

  • 使用弱增强而不是强增强进行伪标签预测,会导致模型性能不稳定。强数据增强,对于模型性能的稳定性而言,至关重要。

7

结合强大的预训练

该方法通过自监督学习在大型无监督数据语料库上对与任务无关的模型进行预训练,然后使用小型标签数据集在下游任务上对该模型进行微调,这是一种常见的范式,尤其是在语言任务中。研究表明,如果将半监督学习与预训练相结合,模型可以获得额外的收益。

Zoph 等人在2020年的论文《重新思考预训练和自训练》(Rethinking Pre-training and Self-training),研究了自训练比预训练更有效多少。他们的实验设置是使用ImageNet 进行预训练或自训练,从而改进 COCO结果。需要注意的是,在使用 ImageNet 进行自训练时,它会丢弃标签,仅将 ImageNet 样本用作无标签的数据点。何恺明等人在2018年的论文《重新思考ImageNet 预训练》(Rethinking ImageNet Pre-training)中已经证明,如果下游任务(例如目标检测)非常不同,ImageNet 分类预训练的效果就不是很好。

e0b3a70e4618a53c7e804479d00ff841.png

图18:(a) 数据增强(从弱到强)的结果和 (b) 标签数据集大小对目标检测性能的影响。在图例中:“Rand Init”表示经过随机权重初始化的模型;`ImageNet` 使用在ImageNet数据集上Top-1准确率为84.5%的预训练模型进行初始化;`ImageNet++`使用在 ImageNet数据集上Top-1准确率为86.9%的预训练模型进行初始化。(图片来源:Zoph 等人在2020年的论文《重新思考预训练和自训练》)

该实验获得了一系列有趣的发现:

  • 可用于下游任务的标签样本越多,预训练的有效性就越低。预训练在低数据模式(20%)下是有帮助的,但在高数据情况下是中性的或起反作用的。

  • 在高数据/强增强模式下,即便预训练会起反作用,自训练也是有帮助的。

  • 即使使用相同的数据源,自训练也可以在预训练的基础上带来额外的改进。

  • 自监督预训练(例如通过 SimCLR进行预训练)会损害模型在高数据模式下的性能,跟监督预训练差不多。

  • 联合训练监督和自监督学习目标有助于解决预训练和下游任务之间的不匹配问题。预训练、联合训练和自训练都是加性的。

  • 噪声标签或非目标标签(即预训练标签未与下游任务标签对齐)比目标的伪标签更差。

  • 自训练在计算上比在预训练模型上进行微调,更昂贵。

Ting Chen等人在2020年的论文《大型自监督模型是强大的半监督学习者》(Big Self-Supervised Models are Strong Semi-Supervised Learners)中,提出了一个三步程序(three-step procedure)方法,将自监督预训练、有监督微调以及自训练的优势都结合在一起:

1.使用无监督或子监督方法对一个大模型进行训练;

2.在一些标签示例上对该模型进行有监督微调,其中使用大型(深且宽)的神经网络至关重要,因为使用更少的标签样本下,模型越大,性能更佳。

3.在自训练中采用伪标签,对无标签示例进行蒸馏。

a.可以将一个大模型的知识蒸馏到一个小模型中,因为这种特定任务的用法并不需要学到的表示的额外容量。

b.蒸馏损失公式如下,其中Teacher网络是固定的,权重为98f768412aad664c8cc4f84f67add138.png

 f5cad65b0d9590a14816afa5e40e55e4.png

adeb65027c50c8f90abfcbd0a5a36455.png

图19:半监督学习框架通过与任务无关的无监督预训练(左)和特定任务的自训练和蒸馏(右)来使用无标签的数据语料库。(图片来源:Ting Chen等人在2020年的论文《大型自监督模型是强大的半监督学习者》) 

论文作者在 ImageNet 分类任务上进行了实验。自监督预训练使用 SimCLRv2,SimCLR 的直接改进版本。他们在实证研究中的观察结果,证实了Zoph 等人在2020年提出的一些成果:

  • 更大模型的标签学习更加高效;

  • SimCLR 中更大/更深的project heads可以改善表征学习;

  • 使用无标签数据进行蒸馏,能优化半监督学习。

2fa220b90e4bc52c5b91ed29b0ec358e.png

图20:SimCLRv2 + 半监督蒸馏在 ImageNet 分类上的性能对比。(图片来源:Ting Chen等人在2020年的论文《大型自监督模型是强大的半监督学习者》)

通过对最近半监督学习方法的总结,我们可以发现不少方法都旨在减少确认偏误:

  • 通过先进的数据增强方法将有效且多样化的噪声应用于样本。

  • 在处理图像时,MixUp 是一种有效的数据增强方法。该方法同样可用于语言任务,实现较小的增量优化((Guo et al. 2019)。

  • 设置阈值,并去掉置信度低的伪标签。

  • 设置每个小批量中的标签样本的最少数量。

  • 锐化伪标签分布来减少类重叠。 

如需引用,请注明:

@article{weng2021semi,  title   = "Learning with not Enough Data Part 1: Semi-Supervised Learning",
  author  = "Weng, Lilian",
  journal = "lilianweng.github.io",
  year    = "2021",
  url     = "https://lilianweng.github.io/posts/2021-12-05-semi-supervised/"
}

参考文献:

[1] Ouali, Hudelot & Tami. “An Overview of Deep Semi-Supervised Learning” arXiv preprint arXiv:2006.05278 (2020).

[2] Sajjadi, Javanmardi & Tasdizen “Regularization With Stochastic Transformations and Perturbations for Deep Semi-Supervised Learning.” arXiv preprint arXiv:1606.04586 (2016).

[3] Pham et al. “Meta Pseudo Labels.” CVPR 2021.

[4] Laine & Aila. “Temporal Ensembling for Semi-Supervised Learning” ICLR 2017.

[5] Tarvaninen & Valpola. “Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results.” NeuriPS 2017

[6] Xie et al. “Unsupervised Data Augmentation for Consistency Training.” NeuriPS 2020.

[7] Miyato et al. “Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning.” IEEE transactions on pattern analysis and machine intelligence 41.8 (2018).

[8]Ian J. Goodfellow et al.”Explaining and Harnessing Adversarial Examples“,2014

[9] Verma et al. “Interpolation consistency training for semi-supervised learning.” IJCAI 2019

[10] Lee. “Pseudo-label: The simple and efficient semi-supervised learning method for deep neural networks.” ICML 2013 Workshop: Challenges in Representation Learning.

[11] Iscen et al. “Label propagation for deep semi-supervised learning.” CVPR 2019.

[12] Xie et al. “Self-training with Noisy Student improves ImageNet classification” CVPR 2020.

[13] Jingfei Du et al. “Self-training Improves Pre-training for Natural Language Understanding.” 2020

[14 Iscen et al. “Label propagation for deep semi-supervised learning.” CVPR 2019

[15] Arazo et al. “Pseudo-labeling and confirmation bias in deep semi-supervised learning.” IJCNN 2020.

[16] Berthelot et al. “MixMatch: A holistic approach to semi-supervised learning.” NeuriPS 2019

[17] Berthelot et al. “ReMixMatch: Semi-supervised learning with distribution alignment and augmentation anchoring.” ICLR 2020

[18] Eric Arazo et al. Unsupervised Label Noise Modeling and Loss Correction,2019

[19] Sohn et al. “FixMatch: Simplifying semi-supervised learning with consistency and confidence.” CVPR 2020

[20] Junnan Li et al. “DivideMix: Learning with Noisy Labels as Semi-supervised Learning.” 2020 [code]

[21] Zoph et al. “Rethinking pre-training and self-training.” 2020.

[22] Chen et al. “Big Self-Supervised Models are Strong Semi-Supervised Learners” 2020

猜您喜欢:

b761ba0a032c0b89e15d5923ec42e0df.png 戳我,查看GAN的系列专辑~!

一顿午饭外卖,成为CV视觉前沿弄潮儿!

CVPR 2022 | 25+方向、最新50篇GAN论文

 ICCV 2021 | 35个主题GAN论文汇总

超110篇!CVPR 2021最全GAN论文梳理

超100篇!CVPR 2020最全GAN论文梳理

拆解组新的GAN:解耦表征MixNMatch

StarGAN第2版:多域多样性图像生成

附下载 | 《可解释的机器学习》中文版

附下载 |《TensorFlow 2.0 深度学习算法实战》

附下载 |《计算机视觉中的数学方法》分享

《基于深度学习的表面缺陷检测方法综述》

《零样本图像分类综述: 十年进展》

《基于深度神经网络的少样本学习综述》

a4587b1adc7de33174d3d62957c336e2.png

  • 4
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
监督学习是一种机器学习方法,它利有标签和无标签的数据来进行模型训练。在半监督学习中,我们通常只有一小部分数据是有标签的,而大部分数据是无标签的。PyTorch是一个流行的深度学习框架,提供了丰富的工具和库来支持半监督学习任务。 在PyTorch中,可以使用以下方法来实现半监督学习: 1. 自定义数据加载器:首先,你需要创建一个自定义的数据加载器,用于加载有标签和无标签的数据。你可以使用PyTorch的`Dataset`和`DataLoader`类来实现。 2. 构建模型:接下来,你需要构建一个适合半监督学习的模型。这个模型可以是任何你想要使用的深度学习模型,例如卷积神经网络(CNN)或循环神经网络(RNN)等。 3. 定义损失函数:在半监督学习中,通常会使用两个损失函数:一个用于有标签数据监督学习部分,另一个用于无标签数据的半监督学习部分。你可以使用PyTorch提供的各种损失函数,如交叉熵损失函数(`CrossEntropyLoss`)或均方误差损失函数(`MSELoss`)等。 4. 训练模型:使用有标签数据进行监督学习的训练过程与常规的监督学习相似。你可以使用PyTorch提供的优化器(如随机梯度下降(SGD)或Adam)来更新模型的参数。对于无标签数据的半监督学习部分,你可以使用一些半监督学习算法,如自训练(self-training)或伪标签(pseudo-labeling)等。 5. 模型评估:在训练完成后,你可以使用有标签数据来评估模型的性能。你可以计算准确率、精确率、召回率等指标来评估模型的表现。 这只是一个简单的介绍,半监督学习还有很多不同的方法和技术。如果你对某个具体的半监督学习方法或PyTorch的实现细节有更具体的问题,请告诉我。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值