迁移学习(SPI)《Semi-Supervised Domain Adaptation by Similarity based Pseudo-label Injection》

1 摘要

  挑战:半监督域适应 (SSDA) 的主要挑战之一是标记的源样本和目标样本数量之间的比例偏差,导致模型偏向源域;

  问题:SSDA 最近的工作表明,仅将标记的目标样本与源样本对齐可能会导致目标域与源域的域对齐不完整;

2 介绍

  无监督域适应的基本假设是,学习到域不可知特征空间的映射,以及在源域上表现足够好的分类器,可以泛化到目标域。 然而,最近的研究 [20,42,46,7] 表明,这些条件不足以实现成功的域适应,甚至可能由于两个域的边缘标签分布之间的差异而损害泛化。

  半监督学习 (SSL) [1,36,3,45] 已被证明在每个注释的性能方面非常高效,因此提供了一种更经济的方式来训练深度学习模型。 然而,一般来说,UDA 方法在半监督环境中表现不佳,在半监督环境中我们可以访问目标域中的一些标记样本 [31]。 半监督域适应 (SSDA) [35,21,19],利用目标域中的少量标记样本来帮助学习目标域上具有低错误率的模型。 然而,如 [19] 所示,简单地将标记的目标样本与标记的源样本对齐会导致目标域中的域内差异。 在训练期间,标记的目标样本被拉向相应的源样本簇。然而,未标记的样本与标记目标样本的较小相关性被抛在后面。这是因为标记源样本的数量支配标记目标样本的数量,导致标签分布偏斜。 这导致在目标域的同一类中进行子分布。 为了减轻来自源域和目标域的标记样本之间的这种偏差比率,最近的方法 [17,40] 将伪标签分配给未标记的数据。 但是,这些伪标签可能存在噪声,可能导致对目标域的泛化效果不佳。

  在本文中,我们提出了一种简单而有效的方法来缓解 SSDA 面临的上述挑战。 为了对齐来自两个域的监督样本,我们利用对比损失来学习语义有意义和域不变的特征空间。 为了解决域内差异问题,我们通过将未标记目标样本的特征表示与标记样本的特征表示进行比较来计算未标记目标样本的软伪标签。 然而,与标记样本相关性较低的样本可能会有噪声和不正确的伪标签。 因此,我们根据模型对各个伪标签的置信度,在整个训练过程中逐渐将伪标记样本注入(或从)标记目标数据集中(或从中移除)。

3 方法

  整体框架:

  

  Support set:基于小批量,源域、目标域标记样本每个类包含  ηsup ηsup  个样本,所以支持集包含来自两个域的 ηsup Cηsup C 个样本,总共 2 个 ηsup Cηsup C 个样本。

3.1 域间特征对齐

  直接地利用对比损失,通过明确地将相同类别的样本视为正样本,而不管领域如何。 然后训练特征提取器通过最大化同一类特征之间的相似性来最小化 Lcon Lcon 。

    Lcon =∑i∈A−1|Pi|∑p∈Pilogexp(zi⋅zp/τ)∑a∈A∖iexp(za⋅zp/τ)(1)Lcon =∑i∈A−1|Pi|∑p∈Pilog⁡exp⁡(zi⋅zp/τ)∑a∈A∖iexp⁡(za⋅zp/τ)(1)

  Note:支撑集之间;

3.2 伪标签注入

  然而,正如 [19] 中指出的那样,对齐来自源域和目标域的标记样本可能会导致目标域中的子分布。 即,与目标域中标记样本相关性较低的未标记样本不会受到对比损失的影响。 这会导致域内差异,从而导致性能不佳。 为缓解这个问题,本文考虑将未标记的样本注入标记的目标数据集 ^ T,从而有效地增加目标域中标记样本的支持。 我们将更详细地讨论这种方法。 3.2.

  为了减少域内差异,我们建议将未标记目标数据集 TT 中的样本注入标记目标数据集 T^T^。 使用支持集,首先计算未标记样本的软伪标签。在整个训练过程中,我们为未标记的目标数据集 TT 中的每个样本保留锐化软伪标签的指数移动平均值。 这个移动平均值估计了我们的模型对每个未标记样本的预测的置信度。 使用这个估计,我们将高度置信的样本注入到标记的目标数据集 T^T^ 中,并且在每个时期之后将它们各自的标签设置为主导类。

  为了计算来自目标域的未标记样本的软伪标签,我们从 PAWS [1] 中获得灵感,这是一项半监督学习的最新工作,并将其扩展到 SSDA 设置。 我们将支持集 xsupxsup 及其各自的标签表示为 ysupysup。 设 zsupzsup 是支持集 xsupxsup 中样本的归一化特征表示,z^i(=zi/∥zi∥)z^i(=zi/‖zi‖) 表示未标记样本 xixi 的归一化特征表示。 然后,可以使用以下方法计算第 ii 个未标记样本的软伪标签:

    y~i=στ(z^i⋅z^⊤sup )ysup y~i=στ(z^i⋅z^sup ⊤)ysup 

  其中,στ(⋅)στ(⋅) 表示带温度参数 ττ 的 softmaxsoftmax, 然后使用温度 τ>0τ>0 的锐化函数 ππ 对这些软伪标签进行锐化,描述如下:

    π(y~)=y~1/τ∑Cj=1y~1/τjπ(y~)=y~1/τ∑j=1Cy~j1/τ

  锐化有助于从未标记和标记样本之间的相似性度量中产生自信的预测。

  在整个训练过程中,我们保持未标记目标数据集 TT 中每个图像的锐化软伪标签的指数移动平均值 (EMA)。 更具体地说,我们维护一个映射 P:I→RCP:I→RC 从未标记样本的图像 ID 到它们各自锐化的软伪标签(类概率分布)的运行 EMA。 令 ID(⋅)ID(⋅) 表示一个运算符,它返回与未标记目标数据集 TT 中的输入样本对应的图像 IDID,P(ID(xi))P(ID⁡(xi)) 是 xixi 的锐化伪标签的 EMA。 然后,未标记数据集 TT 中样本 xixi 的指数移动平均值更新如下:

     P(ID(xi))←ρπ(y~i)+(1−ρ)P(ID(xi))(5)P(ID(xi))←ρπ(y~i)+(1−ρ)P(ID⁡(xi))(5) 

  其中 ρρ 表示动量参数。 当在训练过程中第一次遇到一个样本时,P(ID(xi))P(ID⁡(xi)) 被设置为 π(y~i)π(y~i) 和  Eq.5Eq.5 之后使用。

  在每个 epoch 之后,我们检查 PP 中每个样本的 EMA(类概率分布)。如果某个特定样本对某个类的置信度超过某个阈值 γγ,我们将该样本及其对应的预测类注入到标记的目标数据集 T^T^ 中。 我们将考虑用于注射 II 的样本集定义为:

    It≜{(xi,argmaxP(ID(xi))∣xi∈T∧maxP(ID(xi))≥γ}(6)It≜{(xi,arg⁡maxP(ID⁡(xi))∣xi∈T∧maxP(ID⁡(xi))≥γ}(6)

  其中 tt 表示当前 epochepoch。

  但是,这些样本可能存在噪音并可能阻碍训练过程; 因此,如果样本的置信度低于阈值 γγ,我们也会从标记的数据集中删除样本。 要从标记目标数据集 RR 中删除的样本集定义为:

    Rt≜{(xi,yi)∣xi∈(T^t∖T^0)∧maxP(ID(xi))<γ}Rt≜{(xi,yi)∣xi∈(T^t∖T^0)∧maxP(ID⁡(xi))<γ}

  其中 yiyi 表示先前分配给方程式中的样本 xixi 的相应伪标签。 请注意,来自标记目标数据集 T^0T^0 的原始样本永远不会从数据集中删除,因为 II 和 RR 都仅包含来自未标记目标数据集 TT 的样本。

  因此,在每个纪元 tt 之后,标记的目标数据集 TT 将更新为:

    T^t+1=⎧⎩⎨(T^t∖Rt)∪ItT^t if t≥W otherwise T^t+1={(T^t∖Rt)∪It if t≥WT^t otherwise 

  其中 WW 表示标记的目标数据集 T^T^ 保持不变的预热阶段数。 这些预热时期允许源域和目标域的特征表示在样本被注入标签目标数据集之前在某种程度上对齐。 这可以防止假阳性样本进入 T^T^,否则会阻碍学习过程。

3.3 实例级相似度

  我们现在介绍实例级相似性损失。 受 [1,5] 的启发,我们遵循多视图增强来生成未标记图像的 ηg=2ηg=2 全局裁剪和 ηlηl 局部裁剪。 这种增强方案背后的关键见解是通过明确地使这些不同视图的特征表示更接近来强制模型关注感兴趣的对象。 全局裁剪包含更多关于感兴趣对象的语义信息,而局部裁剪仅包含图像(或对象)的有限视图。 通过计算全局作物和支持集样本之间的特征级相似度,我们使用 Eq.3Eq.3 计算未标记样本的伪标签。

  然后训练特征提取器以最小化使用一个全局视图生成的伪标签与使用另一个全局视图生成的锐化伪标签之间的交叉熵。 此外,使用局部视图生成的伪标签与来自全局视图的锐化伪标签的平均值之间的交叉熵被添加到损失中。

  稍微滥用符号,给定样本 xixi,我们将 y~g1iy~ig1 和 y~g2iy~ig2 定义为两种全局作物的伪标签,并且 y~ljiy~ilj 表示第 jj 个局部作物的伪标签。 类似地,我们遵循相同的符号来为这些由 ππ 表示的作物定义锐化的伪标签。 因此训练特征提取器以最小化以下损失:

    Lils=−∑i=1|Bu|(H(y~g1i,πg2i)+H(y~g2i,πg1i)+∑j=1ηlH(y~lji,πgi)),Lils=−∑i=1|Bu|(H(y~ig1,πig2)+H(y~ig2,πig1)+∑j=1ηlH(y~ilj,πig)),

  其中,H(⋅,⋅)H(⋅,⋅) 表示交叉熵,πgi=(πg1i+πg1i)/2πig=(πig1+πig1)/2,|Bu||Bu| 表示未标记样本的数量。

3.4 域内对齐

  为了确保来自目标域中同一类的未标记样本在潜在空间中靠得更近,我们使用未标记样本之间的一致性损失。 由于这些样本没有标签,我们计算未标记样本之间的成对特征相似性,以估计它们是否可能属于同一类。 正如[13]所提出的,如果两个样本 xixi 和 xjxj 的前 kk 个高度激活的特征维度的索引相同,则可以认为它们相似。 令 top−k(z)top−k(z) 表示 zz 的前 kk 个高度激活的特征维度的索引集,然后,我们认为两个未标记的样本 ii 和 jj 相似,如果:

      top-k (zi)⊖ top- k(zj)=Φ top-k (zi)⊖ top- k(zj)=Φ

  其中,zizi 和 zjzj 是各自的特征表示,⊖⊖ 是对称集差算子。

  我们构造一个二元矩阵 M∈{0,1}|Bu|×|Bu|M∈{0,1}|Bu|×|Bu| ,MijMij 表示未标记 Batch BuBu 中第 ii 个样本是否与第 jj 个样本相似。使用相似性矩阵 MM ,我们计算目标未标记样本的域内一致性损失 LidaLida 如下:

    Lida=1|Bu|2∑|Bu|i=1∑|Bu|j=1Mij∥zi−zj∥2Lida=1|Bu|2∑i=1|Bu|∑j=1|Bu|Mij‖zi−zj‖2

3.5 分类损失和整体框架

  我们使用标签平滑交叉熵 [24] 损失来训练分类器层。 对于分类器训练,我们只使用来自标记的源数据集 SS 和标记的目标数据集 T^T^ 的样本,这些样本不断用新样本更新。

    Lcls=−∑2ηsup Ci=1H(hi,y^i)Lcls=−∑i=12ηsup CH(hi,y^i)

  其中,hihi 是预测的类别概率,HH 表示交叉熵损失,y^i=(1−α)yi+α/Cy^i=(1−α)yi+α/C 是对应于 xixi 的平滑标签。 这里,αα 是平滑参数,yiyi 是单热编码标签向量。

  结合我们提出的方法 SPI、Lcon Lcon 、LilsLils 和 $\mathcal{L}_{i d a$ 中使用的不同损失,产生一个单一的训练目标:

    LSPI=λLcon+Lils+Lida+LclsLSPI=λLcon+Lils+Lida+Lcls

4 实验

消融研究

  

5 总结

  为了对齐两个域,使用两个域的监督样本利用对比损失来来学习语义上有意义和域不可知的特征空间;

  为减轻标签比例偏斜带来的挑战,通过将未标记的目标样本的特征表示 与 来自源域和目标域的标记样本的特征表示进行比较来为未标记的目标样本打伪标记;

  为增加对目标域的支持,潜在的噪声伪标签在训练过程中逐渐注入到标记的目标数据集中。 具体来说,使用温度标度余弦相似性度量来为未标记的目标样本分配软伪标签。 此外,为每个未标记的样本计算软伪标签的指数移动平均值。 这些伪标签基于置信度阈值逐渐注入(或移除)到(从)标记的目标数据集中,以补充源和目标分布的对齐。 最后,在标记和伪标记数据集上使用监督对比损失来对齐源和目标分布。 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

supeerzdj

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值