【最优传输二十八】Reusing the Task-specific Classifier as a Discriminator:Discriminator-free Adversarial Dom

1.motivation

现有的对抗性UDA方法通常采用额外的鉴别器来与特征提取器进行最小-最大博弈。然而,这些方法大多未能有效利用预测的判别信息,从而导致生成器的模式崩溃。

为了解决这个问题,本文设计了一个简单而有效的对抗性范式,即无鉴别器的对抗性学习网络(DALN),其中类别分类器被重新用作鉴别器,通过统一的目标实现显式的领域对齐和类别区分,使得DALN能够利用预测的判别信息来进行充分的特征对准。

本文引入了一个Nuclear-norm Wasserstein discrepancy (NWD),它对执行判别具有明确的指导意义。这种NWD可以与分类器耦合,用作满足K-Lipschitz约束的鉴别器,而不需要额外的权重裁剪或梯度惩罚策略。作为一种即插即用技术,NWD可以直接用作通用正则化子,以有益于现有的UDA算法。

2.Method

2.1 Reusing the Classifier as a Discriminator

分类器用作鉴别器的动机:原始任务特定分类器对源域和目标域具有隐含的判别能力。

下图显示了基于仅使用源数据训练的模型的源域和目标域上的预测的自相关矩阵。对于源域,得益于监督训练,自相关矩阵的值集中在主对角线上。

相反,对于目标域,由于缺乏监督,预测在非对角线元素上生成更大的值。因此,自相关矩阵中表示的类内和类间相关性能够构造对抗性批评家。

类内部和类之间的关系。

给定由C预测的预测矩阵Z\in \mathbb{R}^{b\times k},其中包含k个类别的预测概率乘以b个样本,自相关矩阵R\in \mathbb{R}^{k\times k}可以通过R=Z^{T}Z来计算,其中预测矩阵Z=C(f)满足

对于自相关矩阵R,主对角线元素表示类内相关性,非对角线元素表示类别间相关性或混淆[19]。

将总体类内相关性定义为

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值