1.motivation
现有的对抗性UDA方法通常采用额外的鉴别器来与特征提取器进行最小-最大博弈。然而,这些方法大多未能有效利用预测的判别信息,从而导致生成器的模式崩溃。
为了解决这个问题,本文设计了一个简单而有效的对抗性范式,即无鉴别器的对抗性学习网络(DALN),其中类别分类器被重新用作鉴别器,通过统一的目标实现显式的领域对齐和类别区分,使得DALN能够利用预测的判别信息来进行充分的特征对准。
本文引入了一个Nuclear-norm Wasserstein discrepancy (NWD),它对执行判别具有明确的指导意义。这种NWD可以与分类器耦合,用作满足K-Lipschitz约束的鉴别器,而不需要额外的权重裁剪或梯度惩罚策略。作为一种即插即用技术,NWD可以直接用作通用正则化子,以有益于现有的UDA算法。
2.Method
2.1 Reusing the Classifier as a Discriminator
分类器用作鉴别器的动机:原始任务特定分类器对源域和目标域具有隐含的判别能力。
下图显示了基于仅使用源数据训练的模型的源域和目标域上的预测的自相关矩阵。对于源域,得益于监督训练,自相关矩阵的值集中在主对角线上。
相反,对于目标域,由于缺乏监督,预测在非对角线元素上生成更大的值。因此,自相关矩阵中表示的类内和类间相关性能够构造对抗性批评家。
类内部和类之间的关系。
给定由C预测的预测矩阵,其中包含k个类别的预测概率乘以b个样本,自相关矩阵可以通过来计算,其中预测矩阵满足
对于自相关矩阵R,主对角线元素表示类内相关性,非对角线元素表示类别间相关性或混淆[19]。
将总体类内相关性定义为