Learning to Transfer Examples for Partial Domain Adaptation学习笔记
文章目录
tip
在域分类器以及源域分类器都对源域的样本进行加权。
使用了额外的域分类器以及源域分类器,保证权重函数中既考虑到标签信息,又考虑到域信息。
Abstract
在目标域样本未标注的情况下,部分域适应面临的主要挑战是如何在共享类别中对相关的样本进行迁移以促进正迁移,以及如何忽略源域中不相关的样本以减轻负迁移。作者在本文中提出了一个方法Example Transfer Network (ETN),它联合学习跨域的域不变性表示和一个渐进的加权方案来量化
源域样本的可转移性。
Introduction
以往的方法都是对对抗网络中的样本进行加权,并对属于源域非共享类别中的样本进行降权。但是它们不能消除非共享类别对源域分类器的负面影响。此外,他们评估源域样本的可转移性,而不考虑潜在的区别性和多模态结构。因此它们可能会对齐源域非共享类别与目标域类别的特征,从而产生负迁移。
作者在本文提出了Example Transfer Network (ETN)。ETN根据源域样本与目标域样本的相似性,使用可转移性权重自动评估源域样本的可转移性,该权重用于衡量这些源域样本对源分类器和域分类器的贡献。特别的,ETN进一步揭示可转移权重的区别性结构。通过这种方式,可以更好地检测和过滤掉不相关的源域样本。
related work
Partial Domain Adaptation
选择性对抗网络(SAN)采用多个具有加权机制的对抗网络来选择非共享类别中的源域样本。部分对抗域适配(Partial Adversarial Domain Adaptation)通过仅使用一个对抗网络并进一步将类别级权重添加到源分类器来改进SAN。重要性加权对抗网(IWAN) 使用辅助领域分类器(不涉及领域对抗训练)的Sigmoid输出
来导出源域样本来自源域共享类别以及非共享类别的概率,该概率用于加权
领域对抗网络中的源域样本。
这些方法减轻了由源域非共享类别引起的负迁移,并促进了共享类别之间的正迁移。然而,由于非共享类别仅被选择出来用于域分类器,源域分类器仍然用所有类别来训练
,它们对于共享类别的性能可能被非共享类别分散。此外,用于获得重要性权重的IWAN的域分类器仅基于特征表示来区分源域和目标域,而不利用源域中的分类信息。这将导致使用非辨别性的重要性权重来区分共享类和异常类。
本文提出了一种实例转移网络(ETN),它在源分类器上进一步降低非共享类别的无关样本的权重
⭐⭐⭐,并采用域分类器来量化实例的可转移性。
Example Transfer Network
文中源域表示为 D s = { ( x i , y i ) } i = 1 n s D_s=\{(x_i,y_i)\}^{n_s}_{i=1} Ds={ (xi,yi)}i=1ns,其中 n s n_s ns表示源域样本的数量,源域拥有类别的个数为 ∣ C s ∣ |C_s| ∣Cs∣。目标域表示为 D t = { x i } i = n s + 1 n s + n t D_t=\{x_i\}^{n_s+n_t}_{i=n_s+1} Dt={ xi}i=ns+1ns+nt,其中 n t n_t nt表示目标域未标注样本的数量,目标域拥有类别的个数为 ∣ C t ∣ |C_t| ∣Ct∣。目标域的类别空间是源域类别空间的子集: C t ⊂ C s C_t\sub C_s Ct⊂Cs,即 ∣ C s ∣ > ∣ C t ∣ |C_s|>|C_t| ∣Cs∣>∣Ct∣.源域与目标域的概率分布分别由p与q表示,且$p_{C_t}\neq q , 其 中 ,其中 ,其中p_{C_t} 表 示 源 域 中 属 于 目 标 域 类 别 空 间 表示源域中属于目标域类别空间 表示源域中属于目标域类别空间C_t 的 样 本 的 分 布 。 本 文 的 目 标 就 是 设 计 一 个 深 度 神 经 网 络 模 型 , 通 过 学 习 可 迁 移 的 特 征 的样本的分布。本文的目标就是设计一个深度神经网络模型,通过学习可迁移的特征 的样本的分布。本文的目标就是设计一个深度神经网络模型,通过学习可迁移的特征f=G_f(x) 以 及 适 应 分 类 器 以及适应分类器 以及适应分类器y=G_y(f)$来减小域间差异。
Transferability Weighting Framework
域适应的关键就是要减小源域样本域目标域样本之间的域偏移。域对抗网络通过一个 two-player minimax game来学习可迁移的特征,其中包括一个域分类器 G d G_d Gd来区别源域与目标域,还有一个特征提取器经过微调后来欺骗域分类器。
为了得到域不变性特征 f f f,通过最大化域分类器 G d G_d Gd的损失来学习特征提取器 G f G_f Gf的参数 θ f \theta_f θf,通过最小化域分类器的损失来学习 G d G_d Gd的参数 θ d \theta_d θd的参数。同时还要最小化标签分类器 G y G_y Gy的损失。
则对抗网络的目标函数为:
E ( θ f , θ y , θ d ) = 1 n s ∑ x i ∈ D s L y ( G y ( G f ( x i ) ) , y i ) − λ n s + n t ∑ x i ∈ D s ∪ D t L d ( G d ( G f ( x i ) ) , d i ) ( 1 ) E(\theta_f,\theta_y,\theta_d)=\frac{1}{n_s}\sum\limits_{x_i\in D_s}L_y(G_y(G_f(x_i)),y_i)-\frac{\lambda}{n_s+n_t}\sum\limits_{x_i \in D_s\cup D_t}L_d(G_d(G_f(x_i)),d_i)(1) E(θf,θy,θd)=ns1