Unsupervised Domain Adaptation via Structured Prediction Based Selective Pseudo-Labeling读书笔记

无监督域自适应的目的是解决目标域未标记样本的分类问题,而标记样本仅来自源域,且这两个域的数据分布不同。在这两种情况下,目标域中缺少标记的样本可能是一个问题,通常通过伪标记来克服。然而,不准确的伪标记可能会在学习过程中导致灾难性的错误积累。这篇文章提出了一种基于结构预测的选择性伪标记策略。结构化预测的灵感来自于目标域的样本在深度特征空间内具有良好的聚类特性,因此可以使用无监督聚类分析来促进准确的伪标记。大量实验表明该方法达到了sota的结果。

在目前的域适应领域里,一种有效的方法是给目标样本分配伪标签,这样两个域的样本就可以组合起来,为监督学习做好准备。伪标记的准确性在整个学习过程中起着重要的作用。在现有的大多数方法中,一旦忽略目标域下的结构信息训练分类器,目标样本就会被独立地伪标记。这篇文章也是通过类似的思路来解决域适应问题。本文的具体贡献如下:

  1. 提出了一种基于有监督的局部保持投影(SLPP)的子空间学习和选择性伪标记策略的模型迭代学习算法。
  2. 利用结构化预测方法对目标域内的结构信息进行挖掘,提高伪标记和域对齐的准确性。
  3. 深入的对比实验和消融实验结果表明,该方法可以在四个基准数据集上获得最好的性能。
    相关工作:
    由于基于深度的和传统的域适应方法在DA领域已经广为人知了,所以这里只就伪标签途径的域适应方法进行表述。选择性伪标签是缓解虚假贴标问题的另一种途径。与软标记策略相似,选择性伪标记也考虑了目标样本标记的置信度,但具体方法有所不同。具体来说,选择一个子集的目标样本用伪标签进行赋值,在下一次迭代学习中,将这些含伪标签的目标样本与源样本相结合作为下一次有监督训练的数据集。该思想的基本初衷是在一开始分类器是弱的,这样只有一小部分目标样本可以被正确分类。每次迭代学习后,当分类器变得更强时,可以正确分类的目标样本就更多,因此需要逐步将置信度高的伪标记样例带入到有监督训练集,参与学习过程。这些算法中的一个关键因素是伪标记的样本选择准则。【1】采用了一种从易到难的策略,选取相似度得分高于阈值的目标样本进行伪标记,并在每次迭代学习后更新该阈值,以选择更多未标记的目标样本。这种样本选择策略的一个局限性是,存在向“容易”类倾斜的风险,在第一次迭代中选择的样本可能由这些“容易”类控制。因此,所学习的模型将严重偏向于“简单”类。【2】中提出了一种类明智选择策略,每个类独立选择样本,这样伪标记的目标样本将有助于在学习过程中调整每个类的条件分布。这篇论文提出通过探索在未标记的目标样例的结构信息选择伪标记。
    提出的方法
    本文提出的方法旨在i兰和适配源域与目标域的条件分布,提出了一种局部保持投影算法来学习一个投影矩阵P将来自两个域的样本映射到相同的子空间。期望所学习的子空间具有一些共性,即来自同一类的样本的投影将彼此接近,不管它们来自哪个域。在子空间中,利用最近邻等分类器对未标记的目标样本进行分类。结合伪标记目标样本和标记源样本,可以更新投影矩阵P。因此,我们使用迭代学习过程来改进投影学习和伪标记,如图1所示。
    使用最接近的类原型(NCP)进行伪标记。源类原型的计算方法是对来自同一类的源样本在同一空间中的投影进行平均。通过测量到这些类原型的距离,可以对目标样本进行伪标记,该方法忽略了目标域的固有结构信息,导致次优伪标记结果。因此,我们通过聚类分析来探索目标域下的结构信息,目标样本的聚类通过结构化预测与源类匹配,以便根据目标样本所属的聚类对其进行标记。我们计算目标样本到聚类中心的距离作为选择性伪标记的准则。靠近聚类中心的样本更有可能被选择进行伪标记,并在下一次迭代学习中参与投影学习。与之前的方法相比,基于结构化预测的方法倾向于选择远离源样本的样本,从而实现更快的域对齐。

Alt
图一 本文方法的具体框架
(a)迭代学习过程(b)通过最近邻类原型进行伪标记©通过结构化预测进行伪标记。红色和蓝色分别用于目标域和源域

问题设置
与之前的无监督域适应问题一样,源域有标注在这里插入图片描述 ,目标域无标注 在这里插入图片描述
第一步是对样例的高维数据进行降维处理,并通过L2正则化进行约束,降维后的低维样例特征为在这里插入图片描述
域联合适配
通过主成分分析和样本归一化得到的低维特征空间具有良好的域对齐特性,然而,它是在无监督的方式下学习的,因此没有足够的辨别力。为了促进两个域的类对齐,本文使用了有监督的局部保持投影(SLPP) 作为一种能够学习定义域不变的判别子空间Z的方法。LPP的目标是通过最小化下面的代价函数来学习一个投影矩阵P:
在这里插入图片描述
P是一个d1*d2维的向量,在这里插入图片描述在这里插入图片描述 的第i列, 在这里插入图片描述也是 在这里插入图片描述个标记源数据和在这里插入图片描述 个选择伪标记目标数据的集合。M则是一个相似度矩阵,其定义如下:在这里插入图片描述
其思想是,来自同一类的样本应该在子空间中相互投影,而不管它们最初来自哪个域。M本质上而言是对MMD度量的一个简化,当我们试图提高域的不变性时,同时保留了域的差异性。
上面的损失函数还可以重写为:
在这里插入图片描述
L=D-M是一个拉普拉斯矩阵,D是一个对角矩阵,在这里插入图片描述 是一个正则化项,用于惩罚投影矩阵P中的极值。刚刚重定义的问题等价于以下广义特征值问题:
在这里插入图片描述
求解广义特征值问题得到的最优解P=[], 在这里插入图片描述是对应于最大d2特征值的特征向量。学习用于域对齐的投影矩阵P需要来自源域和目标域的标记样本。为了得到用于投影学习的目标样本的伪标记,我们在下面的小节中分别通过最近邻类原型和结构化预测来描述伪标记方法。
通过最接近的类原型进行伪标记(NCP)
未标记的目标样本可以标记在学习子空间中Z,其中源样本和目标样本的投影由下式获得:
在这里插入图片描述
我们通过使用平均聚类等集中化方法以及L2正则化等方法,促进Z空间中不同类的可分性。
类y的类原型定义为标号为y的投影源样本的均值向量,其计算公式是:
在这里插入图片描述基于结构预测的伪标记
最近邻类原型的伪标记方法没有考虑目标样本的内在结构,为目标样本的分类提供了有用的信息。为了探索这种结构信息,我们使用了结构预测的伪标记。具体来说,我们使用
K-means生成所有目标样本的投影向量上的|Y|簇。集群中心通过计算类原型来初始化,然后,我们在目标域的一个集群和源域的一个类之间建立一对一的匹配,使所有匹配对的集群中心和类原型的距离之和最小化。令A为一个一对一映射的矩阵,优化问题最终表述为:
在这里插入图片描述用线性规划方法可以有效地解决这一问题,我们可以计算给定目标样本xt属于y类的条件概率:
在这里插入图片描述整体算法流程如下所示:
在这里插入图片描述
使用迭代学习策略来学习用于区域对齐的投影矩阵P,并对目标样本进行改进的伪标记。上述两种伪标记方法能够在下一次迭代中为投影学习提供有用的伪标记目标样本,它们本质上是不同的。
通过最接近类原型的伪标记,往往对接近源数据的样本输出高概率,而结构化预测则对接近目标域聚类中心的样本有信心,无论它们离源域有多远。这篇文章将两种方法结合起来,
因此,给定目标样本xt的伪标签可以通过以下方法进行预测:
在这里插入图片描述
现在我们有了所有目标样本的伪标签,以及这些伪标签的概率,表示为一组三元组:在这里插入图片描述 ,投影学习不使用所有伪标记的目标样本,而是逐步地挑选出其中的一些样例,包含在这里插入图片描述 第k次迭代中的目标样本,其中T为学习过程的迭代次数。一个直接的策略是从其中选择概率最高的在这里插入图片描述样本。但是,这种策略有一个风险,即只从特定的类中选择样本,而忽略其他类。为了避免这种情况,我们进行了类明智的选择,这样,伪标记为每个类的目标样本都有相同的选择机会。特别地,对于第C类,以其中选取的最可能的前n个取为该类的可信度高的伪标签样例加入训练。
实验部分不加以赘述,感兴趣的可以去原文看。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值