【论文阅读】Unsupervised Data Augmentation for Consistency Training

摘要

尽管深度学习取得了成功,但它仍然需要大量的标记数据集才能成功。数据增强在缓解对更多标记数据的需求方面显示出很大的前景。
"无监督数据增强 "或 "UDA"在半监督学习环境下将数据增强应用于无标签数据,鼓励模型在无标签的例子和增强的无标签的例子之间保持预测一致。
通过用先进的数据增强方法(如RandAugment和回译)取代简单的噪声操作,我们的方法在相同的一致性训练框架下为六种语言和三种视觉任务带来了实质性的改进。我们的工作在迁移学习中也可以很好的工作。


1. Introduction

我们的贡献,将在本文的其余部分介绍,具体如下。

  • 在监督学习中最先进的数据增量也可以作为一致性执行的半监督框架下的优秀噪声源。见表1和表2的结果。
  • UDA可以匹配甚至超过使用数量级更多的标记数据的纯监督学习。见表4和图4的结果。表3和表4中报告了视觉和语言任务的最先进结果。
  • UDA与迁移学习结合得很好,例如,在从BERT进行微调时(见表4),并且在高数据量下是有效的,例如在ImageNet上(见表5)。
  • 对UDA如何提高分类性能和最先进的增强技术的相应作用进行了理论分析。

2. Unsupervised Data Augmentation (UDA)

参数表示:
在这里插入图片描述

2.1 Background: Supervised Data Augmentation

数据增强的目的是通过对数据的输入进行转换,在不改变数据的标签的情况下,创造出新颖和真实的训练数据。
尽管取得了可喜的成果,但数据增强大多被认为是 “蛋糕上的樱桃”,它提供了稳定但有限的性能提升,因为迄今为止,这些增强只被应用于通常较小的标记实例集。

2.2 Unsupervised Data Augmentation

为了同时使用有标签的例子和无标签的例子,我们将有标签的例子上的交叉熵损失和方程2中定义的无监督目标加上一个加权因子作为我们的训练目标,如图1所示。
与传统的扰动相比,如高斯噪声、dropout噪声或仿生变换,我们认为针对每个任务的数据增强可以作为一个更有效的 "噪声 "来源。具体来说,使用有针对性的数据增强作为扰动功能有几个优点。

在这里插入图片描述

大话-数据增强-UDA理论篇这篇文章给上图一个完美的解释。

从上图的 Final Loss(最终损失函数) 可以看出来,其由两部分组成(Supervised Cross-entropy Loss 和 Unsupervised Consistency Loss)。

Supervised Cross-entropy Loss 是有监督交叉熵损失
Unsupervised Consistency Loss 是无监督一致性损失

当与标记的例子联合训练时,我们利用一个加权因子λ来平衡监督的交叉熵和无监督的一致性训练损失,这在图1中得到说明。

在这里插入图片描述

2.3 Augmentation Strategies for Different Tasks

  • 用于图像分类的RandAugment
  • 文本分类的逆向翻译
  • 用TF-IDF进行文本分类的单词替换

在这里插入图片描述

2.4 Additional Training Techniques

第二部分Unsupervised Consistency Loss采用如下公式:
(1)一致性损失项只对分类类别中最高概率大于阈值β的例子进行计算。
(2)Sharpening Predictions,采用一个低softmax温度控制参数τ。我们实验中采用0.4.

在这里插入图片描述


3. Theoretical Analysis

在这里插入图片描述
(1)数据增强丰富了(覆盖了)子类别的各种情况,如下面c图。(2)子类列中的数据是可以通过各种转换操作进行互相转换的,所以UDA只需要很少的标注样本即可


4. Experiments

4.1 Correlation between Supervised and Semi-supervised Performances

在这里插入图片描述
表1和表2显示了监督和半监督设置之间的增强效果的强烈相关性。这验证了我们的想法,即在监督学习中发现的更强大的数据增强,在应用于半监督学习设置时,总是可以带来更多的收益。

4.2 Algorithm Comparison on Vision Semi-supervised Learning Benchmarks

在这里插入图片描述
在不同规模的标记数据下,UDA始终优于两个基线。而数据增强大多产生多样化和真实的图像
在这里插入图片描述
UDA是对迁移学习/表示学习的补充。我们可以看到,当用BERT初始化并在域内数据上进一步微调时,UDA仍然可以在IMDb上将错误率从6.50大幅降低到4.20
在这里插入图片描述

为了评估UDA是否可以扩展到大规模和高难度的问题,我们现在转向以ResNet-50为基础架构的ImageNet数据集。具体来说,我们考虑两种不同性质的实验设置。

  • 使用ImageNet中10%的监督数据,而将所有其他数据作为无标签数据。因此,未标记的示例完全是域内的。
  • 在第二种情况下,我们将ImageNet中的所有图像作为监督数据。
    在这里插入图片描述
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
无监督的数据增强是一种用于一致性训练的技术。在机器学习任务中,一致性训练是指通过使用多个不同版本的输入数据来增强模型的鲁棒性和泛化能力。 传统的数据增强技术通常需要手动标注数据,并提供给模型进行有监督学习。然而,当可用的标注数据有限或者成本较高时,无监督的数据增强技术可以用来增加训练数据的数量和多样性,从而改善模型的性能。 无监督的数据增强技术通过对原始数据进行一系列变换和扰动来生成新的训练样本,而这些变换和扰动不需要额外的标注信息。这些变换可以包括图像翻转、旋转、缩放、平移、加噪声等等。通过这种方式,无监督的数据增强可以从有限的训练样本中生成大量的人工样本,有效地扩展了训练数据的规模和多样性。 无监督的数据增强可以用于各种机器学习任务,如图像分类、目标检测、语义分割等。通过在一致性训练中使用无监督的数据增强,模型可以学习到不同版本的输入数据之间的一致性,并提高对于噪声和变化的鲁棒性。例如,在图像分类任务中,模型可以通过看到同一张图像在不同变换下的预测结果来学习更稳定和一致的特征表示。 总之,无监督的数据增强是一种有效的技术,可以通过生成大量的人工训练样本来改善模型的性能。在一致性训练中,无监督的数据增强可以帮助模型学习到不同版本的输入数据之间的一致性,从而提高模型的鲁棒性和泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值