Importance Weighted Adversarial Nets for Partial Domain Adaptation学习笔记

Importance Weighted Adversarial Nets for Partial Domain Adaptation学习笔记

Abstract

本文提出了一种基于重要性加权对抗网络的无监督域自适应方法,特别适用于部分域自适应,其中目标领域比源领域拥有更少的类别。

introduce

作者假设目标域的样本均未标注,而且目标域所有的类别都能在源域中找到,即目标域的类别空间是源域类别空间的子集。但是这时候如果直接进行迁移无法有效减小两个域之间的域偏移,因为两个域的标签空间不同,所以域之间的边缘分布本质上也不相同。

在这种情况下,从源域迁移到目标域的一种可行的方式是在分布匹配过程中对于可能出现在目标域的源域类别,对属于该类别的源域样本进行重新加权。然而,目标域是未标注的,揭示哪些类被呈现以及哪些源域样本对于迁移任务是重要的并不简单。针对这一问题,本文提出了一种基于加权对抗网络的深度域适应方法

基于加权对抗网络的深度域适应方法中包括一个特征提取器以及一个域分类器。其中特域分类器旨在识别源域样本和目标域样本分布之间的差异,以找到真实领域分布散度的更紧密的下界;而特征提取器通过向与域分类器相反的方向步进来减少分布的发散

本文提出使用使用两个域分类器来获得源域样本的重要程度得分。形象地说,在给定任意一个特征提取器的时候,第一个域分类器输出的最优参数给出了样本来自源域的概率,如果第一个域分类器的激活很大,那么这时候的样本很可能属于两个域共享类别之外的类别。因此,使用第一个域分类器的激活作为每个源域样本对目标域重要性的指示。然后,将所学习的权重应用于源域样本,并且将加权的源域样本和目标域样本送到第二个域分类器,用于优化特征提取器。

作者已经表明,特征提取器和第二个域分类器之间的最小最大博弈在理论上等价于减少加权源密度和目标密度之间的詹森-香农散度

related work

减小域间差异的方法目前主要有三种:

  1. 基于统计矩匹配的方法: maximum mean discrepancy (MMD)、Central Moment Discrepancy (CMD)
  2. 基于对抗损失的方法:鼓励来自不同领域的样本对领域标签不加区分
  3. 基于正则化的方法:将源域和目标域样本的分布对齐

然而,所有这些方法都依赖于特征空间中边缘分布的匹配,因此为了进行可行的适应,域之间的标签空间都被假定为相同的。

Proposed Method

源域的样本集定义为 X s ∈ R D × n s X_s\in \mathbb{R}^{D\times n_s} XsRD×ns,源域样本的分布为 P s ( x ) P_s(x) Ps(x);目标域的样本集定义为 X t ∈ R D × n t X_t\in \mathbb{R}^{D\times n_t} XtRD×nt,目标域域样本的分布为 P t ( x ) P_t(x) Pt(x)。D表示数据的维度, n s n_s ns n t n_t nt分别表示两个域的样本数量。

源域表示为 D s = { ( x i s , y i s ) i = 1 n s } , x i s ∈ R D D_s=\{(x^s_i,y^s_i)_{i=1}^{n_s}\},x^s_i\in \mathbb{R}^D Ds={(xis,yis)i=1ns},xisRD目标域表示为 D t = { ( x j t ) j = 1 n t } , x j t ∈ R D D_t=\{(x^t_j)^{n_t}_{j=1}\},x^t_j \in \mathbb{R}^D Dt={(xjt)j=1nt},xjtRD.

源域与目标域的特征空间假设一致: X s = X t \mathcal{X}_s=\mathcal{X}_t Xs=Xt,目标域标签空间是源域标签空间的子集: Y t ⊆ Y s \mathcal{Y}_t \sube \mathcal{Y}_s YtYs

framework
image-20201111102653539

绿色部分是源域与目标域的特征提取器。图中阴影部分表示参数经过了预训练,在训练过程中不会更新。蓝色部分表示第一个域分类器,来获得源域样本的重要性权重。红色部分表示第二个域分类器,用来与带权重的源域样本、目标域样本进行minimax game。GRL表示梯度反转层,在后向传播中改变梯度的符号。

Adversarial Nets-based Domain Adaptation

作者使用了类似论文《Unsupervised domain adaptation by backpropagation》、《Adversarial discriminative domain adaptation》中的前馈网络中域分类器,同时学习区分类别的特征和域不变特征,其中源域数据的标签预测器的损失最小,而域分类器的损失最大。

本文中基于对抗网络的域适应框架与传统GAN相似:

min ⁡ F s , F t max ⁡ D L ( D , F s , F t ) = E x ∼ p s ( x ) [ l o g ( D ( F s ( X ) ) ) ] + E x ∼ p t ( x ) [ l o g ( 1 − D ( F t ( x ) ) ) ] ( 1 ) \min\limits_{F_s,F_t}\max\limits_{D}\mathcal{L}(D,F_s,F_t)=\mathbb{E}_{x\sim p_s(x)}[log(D(F_s(X)))]+\mathbb{E}_{x \sim p_t(x)}[log(1-D(F_t(x)))](1) Fs,FtminDmaxL(D,Fs,Ft)=Exps(x)[log(D(Fs(X)))]+Expt(x)[log(1D(Ft(x)))]1.

其中 F s F_s Fs F t F_t Ft分别表示源域与目标域样本的特征提取器,二者可以共享参数,也可以不共享。D表示一个二元域分类器(对应原始GAN模型中的辨别器),源域样本标注为1,目标域样本标注为0.通过训练域分类器D最大化minimax损失(获得域不变特征),在真实域分布散度产生了的更紧的下界,而通过训练特征提取器F最小化minimax损失(正确进行分类),最小化了特征空间中的分布散度。

在本文中,作者对源域和目标域采用了非共享特征提取器,以获取比共享特征提取器更多的域特定特征,并分别训练源域样本分类器分类器C:

min ⁡ F s , C L s = E x , y ∼ p s ( x , y ) L ( C ( F s ( x ) ) , y ) ( 2 ) \min\limits_{F_s,C}\mathcal{L}_s=\mathbb{E}_{x,y\sim p_s(x,y)}L(C(F_s(x)),y)(2) Fs,CminLs=Ex,yps(x,y)L(C(Fs(x)),y)2

L表示源域样本分类的损失。

给定训练后的 F s ( x ) F_s(x) Fs(x),使用域对抗损失,通过优化 F t ( x ) F_t(x) Ft(x)与D来减小域间差异。

min ⁡ F t max ⁡ D L ( D , F s , F t ) = E x ∼ p s ( x ) [ l o g ( D ( F s ( X ) ) ) ] + E x ∼ p t ( x ) [ l o g ( 1 − D ( F t ( x ) ) ) ] ( 3 ) \min\limits_{F_t}\max\limits_{D}\mathcal{L}(D,F_s,F_t)=\mathbb{E}_{x\sim p_s(x)}[log(D(F_s(X)))]+\mathbb{E}_{x \sim p_t(x)}[log(1-D(F_t(x)))](3) FtminDmaxL(D,Fs,Ft)=Exps(x)[log(D(Fs(X)))]+Expt(x)[log(1D(Ft(x)))]3

其中 F t F_t Ft的参数使用 F s F_s Fs完成初始化。

在给定 F s ( x ) F_s(x) Fs(x)(类比对应原始GAN模型中的真实图片)以及 F t ( x ) F_t(x) Ft(x)(类比对应GAN模型中的生成图片),最合适的D为:

D ∗ ( z ) = p s ( z ) p s ( z ) + p t ( z ) ( 4 ) D^*(z)=\frac{p_s(z)}{p_s(z)+p_t(z)}(4) D(z)=ps(z)+pt(z)ps(z)4

其中 z = F ( x ) z=F(x) z=F(x)表示经过特征提取器提取特征后特征空间中的样本。

Importance Weighted Adversarial Nets-based Domain Adaptation
Sample weights learning

在公式(3)中,域分类器为 D ( z ) = p ( y = 1 ∣ z ) = σ ( a ( z ) ) D(z)=p(y=1|z)=\sigma(a(z)) D(z)=p(y=1z)=σ(a(z)),其中 σ \sigma σ表示sigmoid激活函数。假设域分类器已经收敛到对于当前特征提取器而言的最优值,则域分类器的输出表示样本来自源域分布的可能性

  • 如果 D ∗ ( z ) ≈ 1 D^*(z)\approx 1 D(z)1,表示样本很可能来自源域中共享类别之外的类别,因为覆盖样本的区域几乎没有或根本没有目标样本,并且可以通过域分类器几乎完美地与目标域样本分布区分开来。这些样本将被域分类器以及特征提取器忽略。
  • 如果 D ∗ ( z ) D^*(z) D(z)很小,则样本更可能来自两个域的共享类别,这些样本应该被赋予更大的重要性权重,以减少共享类间的域偏移

因此,权重函数应该与 D ∗ ( z ) D^*(z) D(z)成反比,定义源域样本的重要性权重函数:

w ~ ( z ) = 1 − D ∗ ( z ) = 1 p S ( z ) p t ( z ) + 1 ( 7 ) \tilde{w}(z)=1-D^*(z)=\frac{1}{\frac{p_S(z)}{p_t(z)}+1}(7) w~(z)=1D(z)=pt(z)pS(z)+117

于是源域共享类别之外的样本的重要性权重函数的值就小于共享类别中样本的重要性权重函数值。权重函数也是源域和目标域特征之间的密度比的函数,这进一步验证了权重函数的合理性,因为覆盖很少或没有目标样本的样本的邻近区域将被分配小的权重

作者的目的是获得源域样本的相对重要性,建议来自非共享类别的样本应该被赋予比来自共享类别的样本相对更小的权重。因此,权重标准化如下:

w ( z ) = w ~ ( z ) E z ∼ p s ( z ) w ~ ( z ) ( 8 ) w(z)=\frac{\tilde{w}(z)}{\mathbb{E}_{z\sim p_s(z)}\tilde{w}(z)}(8) w(z)=Ezps(z)w~(z)w~(z)8

其中 E z ∼ p s ( z ) w ( z ) = 1 \mathbb{E}_{z\sim p_s(z)}{w}(z)=1 Ezps(z)w(z)=1

权重函数属于域分类器的函数,如果在同一个的域分类器上应用权重,则minimax game的理论结果将不会减少两个密度之间的JensenShannon散度(因为由于引入了权重函数(也是D的函数),所以最佳分类器(例如等式4)将不会是源密度与源和目标密度之和之间的比率)。

于是作者在提取后的特征上使用第二个域分类器进行加权后源域样本与目标域样本的比较。这样一来,第一个域分类器只是基于 F s F_s Fs F t F_t Ft得到源域样本的重要性权重,则域分类器D在后向传播时不会更新 F t F_t Ft的参数。因为D的梯度是在未加权的源域样本上学习的,并且不是减少共享类别上的域偏移的好指标,所以作者使用第二个域分类器 D 0 D_0 D0来进行minimax game,更新 F t F_t Ft,减小共享类别之间的差异

将重要性权重添加到源域样本中后,加权对抗网络的目标函数为:

min ⁡ F t max ⁡ D 0 L w ( D 0 , F s , F t ) = E x ∼ p s ( x ) [ w ( z ) l o g D 0 ( F s ( x ) ) ] + E x ∼ p t ( x ) [ l o g ( 1 − D 0 ( F t ( x ) ) ) ] ( 9 ) \min\limits_{F_t}\max\limits_{D_0}\mathcal{L}_w(D_0,F_s,F_t)=\mathbb{E}_{x\sim p_s(x)}[w(z)logD_0(F_s(x))]+\mathbb{E}_{x\sim p_t(x)}[log(1-D_0(F_t(x)))](9) FtminD0maxLw(D0,Fs,Ft)=Exps(x)[w(z)logD0(Fs(x))]+Expt(x)[log(1D0(Ft(x)))]9

其中 w ( z ) w(z) w(z)为域分类器D的函数,对于 D 0 D_0 D0来说知识一个常数。所以,给定 F s F_s Fs与D,对于任意一个 F t F_t Ft, D 0 D_0 D0的最优结果为:

D 0 ∗ ( z ) = w ( z ) p s ( z ) w ( z ) p s ( z ) + p t ( z ) D_0^*(z)=\frac{w(z)p_s(z)}{w(z)p_s(z)+p_t(z)} D0(z)=w(z)ps(z)+pt(z)w(z)ps(z)

可是 w ( z ) p s ( z ) w(z)p_s(z) w(z)ps(z)仍然是一个概率密度函数,于是作者将公式(9)中的minimax game改写为image-20201111154208869

因此,基于加权对抗网的域自适应本质上是减少特征空间中加权源密度和目标密度之间的詹森-香农散度,从而在 w ( z ) p s ( z ) = p t ( z ) w(z)p_s(z) = p_t(z) w(z)ps(z)=pt(z)上获得最优。

Target data structure preservation

如果特征空间中加权的源域分布和目标域分布之间的偏移很小,则从源域样本中学习的分类器C可以直接用于目标域。在这里,我们通过使用熵最小化原则进一步约束 F t F_t Ft,以鼓励类之间的低密度分离:

min ⁡ F t E x ∼ p t ( x ) H ( C ( F t ( x ) ) ) \min\limits_{F_t}\mathbb{E}_{x\sim p_t(x)}H(C(F_t(x))) FtminExpt(x)H(C(Ft(x))).

其中 H ( ⋅ ) H(·) H()表示信息熵函数。

Overall objective function

整体的目标函数:

image-20201111155838337

其中λ是权衡参数。目标是分阶段优化的, F s F_s Fs C C C在源域样本上进行了预训练,之后进行了调整。然后同时优化D、 D 0 D_0 D0 F t F_t Ft不需要重新访问 F s F_s Fs C C CD仅用于使用 F s F_s Fs F t F_t Ft获取源域样本的重要性权重,而** D 0 D_0 D0与目标域特征提取器进行minimax game来更新 F t F_t Ft。为了解决 F t F_t Ft D 0 D_0 D0之间的minimax game,分别迭代训练两个目标,或者插入梯度反转层** 将梯度乘以-1,以便特征提取器同时学习特征提取器和域分类器。在本文中,选择使用GRL来解决这个问题,以便与以前的方法进行公平的比较。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值