无监督域适应 (UDA)(3)

本帖介绍基于 bi-classifier adversarial learning 的改进。

一、动机

模型训练在两个步骤之间交替进行:(I)约束两个分类器的学习,以最大化未标记目标域数据的预测差异;(II)约束特征提取器的学习,以最小化这种差异。

尽管这种方法是一种优雅的表述,但它有一个基本的限制:最大化和最小化分类器差异对目标域来说不是类判别的,最终会导致次优的适应模型。

为了解决这一问题,一种新的类判别对抗学习(Class Discriminative Adversarial Learning, CDAL)方法,其特征是发现类判别知识并利用这些知识对分类器差异约束进行判别调节。这是通过引入一个评价标准来判断每个分类器的能力和每个目标域样本的特征重定向,通过客观损失重表述来实现的。

二、基本思想

2.1 基本思想

具体而言,如图1(a)所示,脱离源分布支持的目标样本可以归纳为两种类型:两种分类器预测标签一致的Easy样本;两个分类器预测标签不一致的模糊(硬)样本,至少被一个分类器错误分类。

我们观察到,传统的双分类器对抗学习方法两个分类器的预测不一致,往往会产生更多的模糊样本。此外,在优化特征提取器时,为了使预测误差最小化,可能会将模糊的目标样本匹配到错误的类中。

为了解决这一问题,一种新的CDAL框架,该框架以经验感知分类器干扰(ECI)策略为特征,用于更具判别性的分类器优化。该方法可以逐步剔除模糊的目标样本,从而获得更好的区域对准效果。

具体地说,我们用ECI评估了两个分类器对每个样本识别能力,迫使分类器做出更好的预测。我们最大化与其他分类器的预测差异,在源分布的支持下找到目标样本;与此同时,另一个分类器通过最小化预测差异来进行优化,以便它可以被纠正并与性能更好的分类器对齐,以获得更一致和准确的预测。因此,这两个分类器逐步提高了它们的判别能力,从而减少了模糊样本。

在更新生成器阶段,为了进一步抑制模糊目标样本,我们设计了一种互补表示正则化来增强条件分布对齐特征提取器的学习能力。

2.2 算法步骤

2.1.1 给目标样本做伪标记。

伪标注是基于聚类的。为了实时获取源域各类别的聚类中心,构造了一个内存来保存部分源特征。在训练开始时,我们扫描源域,随机选择每个类别的m 个源样本特征并将其存储在内存中。由于源域数据被标记,任何源样本都可以被模型快速拟合,并且它们的特征具有很强的判别性。为了保证特征的实时性,在每次迭代中,根据先进先出的原则,将每个类别的原始存储特征替换为当前批处理中的源特征进行更新。

然后,利用内存中存储的特征(K-means聚类算法的初始聚类中心)计算源聚类中心。每个时期开始时的具体步骤如下。

(1)每个源聚类中心由内存中标记的源样本近似计算为,其中是相对于内存中第k 个类别的第i 个样本特征。

(2)采用K-means聚类算法对目标样本进行聚类。用源聚类中心初始化

(3)每个目标样本计算其到每个聚类中心的距离(采用余弦距离函数),得到一个伪标签,即:

(4)根据目标域的当前伪标签更新聚类中心,即

其中

重复上述过程(3)和(4),直到算法收敛。经过这一步,所有的目标域样本都可以得到它们的伪标签。 

2.1.2专家感知分类器干扰(ECI)。

ECI策略旨在改进传统双分类器对抗学习方法的第二步。在此步骤中,在固定特征提取器的同时,对两个分类器进行优化。如前所述,传统方法使预测误差最大化,使预测不一致,产生更模糊的目标样本。ECI就是为解决这个问题而设计的。

具体来说,ECI首先需要知道哪些目标样本可以用h 1或h 2更好地分类。第一步是将目标样本分成两个子集分别对应于h1 和ℎ2 。在每次迭代中,给定一批目标样本,它们的两个分类器的预测分别为}和。由于目标域没有标签信息,因此使用伪标签来近似当前的标签信息。Kullback-Leibler (KL)散度(或者是熵等别的方式)用于计算每个样本的分类预测结果与聚类结果之间的相似度。如果KL散度较小,则表示分类预测接近伪标签。所以对于一个特定的目标样本,如果一个分类器对应的KL散度更小,在不失去一般性的情况下,我们可以认为这个分类器在这个样本上表现得更好。基于这一点,目标样本分成两部分:

其中 和分表表示分类器h1和h2那些分的更好的样本集合。

传统的双分类器对抗学习方法是通过最大化预测差异来寻找偏离源分布的目标域样本,而ECI策略则进一步尽可能地减少了模糊样本。

为了同时实现以上两种优化,体现了使用ECI策略对样本进行划分的重要性。具体来说,对于分类h1 在集合B1上的表现优于h2,因此,进一步要求最大化与h2的预测差值,以检测被源域排除的目标样本;由于h1 在集合B2上的表现差于h2,可能会产生不正确的预测结果,因此需要最小化预测差异来修正其预测。ℎ1的损失函数如下:

 同理,h2 的损失函数如下:

 此外,还需要更新在源域中的分类器。综合以上目标函数,ECI策略的总体损失为:

 2.1.3 特征对齐。

传统的双分类器对抗学习方法通常试图最小化目标样本的预测差异,以优化特征提取器g,同时跨域对齐特征。虽然容易的目标样本通常对齐到正确的类别,但这种策略在处理模糊的目标样本时是无效的,这些目标样本可能被错误分类的分类器检测到,并执行不准确的分类分布对齐。

为了解决这个问题,进一步对两个域之间的条件分布对齐施加了表示正则化。形式上,它迫使目标样本的特征接近源分布,即从模糊区域推开。这个正则化的设计如下:

 

 其中为最新计算的第k类的聚类中心,

 为高斯核函数。通过鼓励伪标签和真标签之间的语义对应,对齐源域和目标域的每一类的聚类中心。

将传统的对齐约束与提出的正则化相结合,我们的特征对其目标函数为:

 

2.3 训练步骤

 

在第一步中,模型(包括特征提取器和两个分类器)通过标记的源样本进行训练。

(a)在第二步中,固定特征提取器,同时通过提出的专业知识感知分类器干扰(ECI)策略更新两个分类器。注意,源域上的监督训练监督被用于保持分类能力。

(b)在第三步中,通过最小化两个固定分类器之间的差异来优化特征提取器。特征对齐也可以跨域应用。

三、参考文献:

[1] Zhou L, Ye M, Zhu X, et al. Class Discriminative Adversarial Learning for Unsupervised Domain Adaptation[C]//Proceedings of the 30th ACM International Conference on Multimedia. 2022: 4318-4326.

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值