半监督学习(SEMI-Supervised Learning)

半监督学习的工作原理

想象一下,收集了大量未标记的数据,您想在这些数据上训练模型。手动标记所有这些信息可能会花费你一大笔钱,除了需要几个月的时间来完成注释。这时候半监督机器学习方法就派上用场了。工作原理很简单。无需将标签添加到整个数据集,而是仅对一小部分数据进行手工标记并使用它来训练模型,然后将其应用于未标记数据的海洋。

自我训练

一般来说,半监督学习最简单的例子之一就是自我训练。

自我训练是您可以采用任何有监督的分类或回归方法并将其修改为以半监督方式工作的过程,利用标记和未标记的数据。标准工作流程如下。

半监督自训练方法

  • 选择少量标记数据,例如显示带有各自标签的猫和狗的图像,并使用此数据集在普通监督方法的帮助下训练基本模型。
  • 然后,使用称为伪标记的过程——当您采用部分训练的模型并使用它对数据库中尚未标记的其余部分进行预测时。此后生成的标签被称为标签,因为它们是基于具有局限性的原始标记数据生成的(例如,集合中的类可能存在不均匀的表示,从而导致偏差——狗多于猫)。
  • 从这一点开始,采用模型做出的最自信的预测(例如,我们希望某个图像显示猫而不是狗的置信度超过 80%)。如果任何伪标签超过此置信水平,则将它们添加到标记数据集中并创建一个新的组合输入来训练改进的模型。
  • 该过程可以经历多次迭代(10 通常是标准数量),每次都添加越来越多的伪标签。只要数据适合流程,模型的性能将在每次迭代中不断提高。

虽然有使用自我训练的成功例子,但应该强调的是,性能可能因一个数据集而异。在很多情况下,与采用监督路线相比,自我训练可能会降低性能。

联合培训

源自自我训练方法并且是其改进版本,协同训练是另一种半监督学习技术,当只有一小部分标记数据可用时使用。与典型过程不同,协同训练基于两个数据视图训练两个单独的分类器。

视图基本上是不同的功能集,它们提供有关每个实例的附加信息,这意味着它们在给定类的情况下是独立的。此外,每个视图都足够了——可以仅从每组特征中准确地预测样本数据的类别。

最初的联合训练研究论文声称该方法可以成功地用于例如网络内容分类任务。每个网页的描述可以分为两种视图:一种是出现在该页面上的单词,另一种是指向它的链接中的锚词。

半监督协同训练方法

因此,以下是简单来说协同训练的工作原理。

  • 首先,在少量标记数据的帮助下为每个视图训练一个单独的分类器(模型)。
  • 然后添加更大的未标记数据池以接收伪标签。
  • 分类器使用具有最高置信度的伪标签相互训练。如果第一个分类器自信地预测数据样本的真实标签,而另一个分类器做出预测错误,则具有由第一个分类器分配的自信伪标签的数据更新第二个分类器,反之亦然。
  • 最后一步涉及组合来自两个更新分类器的预测以获得一个分类结果。

与自我训练一样,协同训练要经过多次迭代,才能从大量未标记的数据中构建一个额外的训练标记数据集。

具有基于图形的标签传播的 SSL

运行 SSL 的一种流行方法是以图形的形式表示标记和未标记的数据,然后应用标签传播算法。它通过整个数据网络传播人造注释。

标签传播的典型例子

如果查看图表,将看到一个数据点网络,其中大部分没有标记,带有四个携带标签(两个红点和两个绿点代表不同的类别)。任务是在整个网络中传播这些彩色标签。一种方法是选择第 4 点,然后计算通过网络从 4 到每个彩色节点的所有不同路径。如果你这样做,你会发现有 5 条步道通向红点,只有 4 条步道通向绿色点。由此,我们可以假设第 4 点属于红色类别。然后您将对图表上的每个点重复此过程。

这种方法的实际应用可以在个性化和推荐系统中看到。通过标签传播,可以根据其他客户的信息预测客户兴趣。在这里,我们可以应用连续性假设的变体——例如,如果两个人在社交媒体上联系在一起,他们很可能会分享相似的兴趣。

来自:Semi-Supervised Learning, Explained | AltexSoft

  • 8
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Temporal Ensembling是一种半监督学习方法,它使用了时间上的一致性来提高模型的性能。该方法通过对未标记数据进行预测,并将预测结果与之前的预测结果进行平均,从而获得更加稳定和准确的预测结果。同时,该方法还使用了一个噪声注入技术来增加模型的鲁棒性。该方法已经在图像分类、语音识别等领域取得了很好的效果。 ### 回答2: Temporal Ensembling是一种半监督学习方法。它主要通过使用同一批数据的多个副本,在单批数据上进行迭代学习来提高预测模型的准确性。这种方法能够很好地利用已有数据中的潜在信息,同时也能避免因缺乏大量标注数据而损失准确性的问题。 Temporal Ensembling的核心思想是使用模型的历史预测结果来生成新的虚拟标签。在训练期间,模型不断地更新,同时不断生成新的“标注”,并将这些新的“标注”与原始标注数据一起训练。这样,模型可以从大量带有“标注”的数据中学习并逐渐提高其准确性。 Temporal Ensembling方法在许多学习任务中都展现出优良的性能,比如图像分类、物体识别、图像分割、语音识别等。其中,与其他半监督学习方法相比,Temporal Ensembling在半监督图像分类中的性能最为出色。 尽管Temporal Ensembling的性能非常出色,但是其中的一些问题仍需要解决。 首先,这种方法需要大量的GPU计算力和存储空间,并且需要复杂的算法设计。其次,由于该方法是基于生成虚拟标签的,因此,如果模型在未来预测错误而不正确地生成了虚拟标签,那么可能会产生负面影响。 总之,Temporal Ensembling是一种有效的半监督学习方法,其取得的结果显示出高水平的准确性。与其他方法相比,Temporal Ensembling具有更好的稳健性及效能。也因此,它在深度学习领域中被广泛应用。 ### 回答3: Temporal Ensembling是一种半监督学习技术,可以用于训练深度神经网络。该技术旨在利用未标记的数据来改善模型的泛化能力。在传统的监督学习中,我们需要分类器预测每个样本的标签,并将其与真实标签进行比较以计算损失函数。然而,在许多现实世界的场景中,标记数据的数量通常是有限的,这使得监督学习变得更加困难和昂贵。相反,在半监督学习中,我们将未标记的数据与标记数据结合在一起进行训练。 Temporal Ensembling的实现是基于一个假设,即相似的输入应该具有相似的潜在表示形式。具体来说,该技术通过在连续训练周期中收集了单次训练中的模型预测,通过将这些预测结果整合成一个移动平均版本来构建模型共识。这可以看作是把模型的预测提供给下一个周期的训练,让模型逐渐整合起来,在连续的训练周期中收集了对训练数据更准确的表示。在训练过程中,我们不仅使用真实标签来计算损失函数,还将平均预测意味着的交叉熵添加到损失函数中。这使得模型学习时能够尽可能地匹配模型共识中的数据。 虽然在许多情况下,半监督学习可以增加模型学习任务的效果,但它依赖于许多因素,包括未标记样本的数量、分布和标记样本之间的相似性。使用Temporal Ensembling时,需要做好降噪处理,适当选择数据能够真正提高该技术效果。此外,需要注意的是,Temporal Ensembling只能在没有过度拟合数据集时才能有效,因为此技术基于模型共识构建。在实际应用中,可以将Temporal Ensembling与其他半监督学习技术结合使用,以提高模型性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值