Multi-source Distilling Domain Adaptation

在这里插入图片描述

1.motivation

本文也是为了解决multi-source domain adaptation的问题,作者认为以前的MDA方法存在以下的问题:

  • 为了学习到domain invariant feature,牺牲了特征提取器的性能;

  • 认为多个source domain的贡献是一致的,忽略了不同source domain和target domain之间的不同的discrepancy,

  • 认为同一个源域中不同样本贡献是一样的,忽略了不同的样本和target domain的相似性不一样

  • 基于adversarial 学习的方式会出现gradient问题,当分类器性能很好的时候(具体可以参见WGAN)

在这里插入图片描述

从Figure 1可以看出 S 1 , S 2 S_1, S_2 S1,S2相比 S 3 , S 4 S_3, S_4 S3,S4 T T T更接近,在 S 2 S_2 S2中不同样本和 T T T的相似性也不同,作者用红线做了区分。

2.Method

在这里插入图片描述

如图2所示,作者提出了multi-source distilling domain adaptation(MDDA) Network. MDDA一共分为四个阶段:

  1. Source Classifier Pre-training. 不用于以往的方法使用共享的backbone来提取多个源域的特征,作者认为采用共享的参数会让特征提取关注domain invariant feature从而对损失提取discriminative 的特征的能力。这里对每一个源域都训练一个独立的特征提取器 F i F_i Fi和分类器 C i C_i Ci(没有共享参数)并且采用交叉熵来优化
    L c l s ( F i , C i ) = − E ( x i , y i ) ∼ p i 1 [ n = y i ] l o g ( σ ( C i ( F i ( x i ) ) ) ) L_{cls}(F_i, C_i) = -E_{(x_i, y_i)\sim p_i}1_{[n=y_i]}log(\sigma(C_i(F_i(x_i)))) Lcls(Fi,Ci)=E(xi,yi)pi1[n=yi]log(σ(Ci(Fi(xi))))

  2. Adversarial Discriminative Adaptation. 在pre-train阶段后,学习独立的target encoder将特征映射到源域空间 S i S_i Si,不同于以往的方法将所有域都映射到同一个domain。这里将target分别映射到N个source domain,来进行adversarial 的学习,并采用wassertein distance来优化
    L w d D ( D i ) = E x i ∼ p i D i ( F i ( x i ) ) − E x T ∼ p T [ D i ( F i T ( x T ) ) ] L w d F ( F i T ) = − E x T ∼ p T D i ( F i T ( x T ) ) L_{wd_D}(D_i) = E_{x_i\sim p_i}D_i(F_i(x_i)) - E_{x^T\sim p_T}[D_i(F_i^T(x_T))]\\ L_{wd_F}(F_i^T)=-E_{x^T\sim p_T}D_i(F_i^T(x_T)) LwdD(Di)=ExipiDi(Fi(xi))ExTpT[Di(FiT(xT))]LwdF(FiT)=ExTpTDi(FiT(xT))
    target encoder尽量让domain d分辨器 D i D_i Di,通过最小化target的feature和source的feature之间Wasserstein距离。这样不同source domain的target domain之间的差距就可以通过wassertein distance来量化

  3. Source distilling. 在distilling 不同域的区别后,作者进一步关注同一个domain中不同样本和target domain之间的差异。也是基于Wassertein distance来选择和target domain接近的样本来finetune 分类器。对于每一个样本 x i j x_i^j xij 在第 i i i个source domain中,计算Wasserstein distance

τ i j = ∣ ∣ D i ( F i ( x j ) ) − 1 N T ∑ k = 1 N T D i ( F i T ( x k ) ) ∣ ∣ \tau_i^j=||D_i(F_i(x_j))-\frac{1}{N_T}\sum_{k=1}^{N_T}D_i(F_i^T(x_k))|| τij=Di(Fi(xj))NT1k=1NTDi(FiT(xk))

​ 选择那些距离比较大的样本来finetune
L d i s t i l l ( C i ) = − E ( x i ^ , y i ^ ) ∼ p i ∑ 1 [ n = y i ^ ] l o g ( σ ( C i ( F i ( x i ^ ) ) ) ) L_{distill}(C_i)=-E_{(\hat{x_i},\hat{y_i})\sim p_i}\sum1_{[n=\hat{y_i}]}log(\sigma(C_i(F_i(\hat{x_i})))) Ldistill(Ci)=E(xi^,yi^)pi1[n=yi^]log(σ(Ci(Fi(xi^))))

  1. Aggregated Target Prediction最后在测试阶段,是将target在不同域特征提取器 F i T ( x T ) F_i^T(x_T) FiT(xT) ,在通过finetune的分类器 C i ′ ( F i T ( x T ) ) C_i^{'}(F_i^T(x_T)) Ci(FiT(xT)) ,最后将所有的结果加权
    R e s u l t ( x T ) = ∑ i = 1 N ω i C i ′ ( F i T ( x T ) ) ω i = e − L w d D i 2 2 Result(x_T)=\sum_{i=1}^N\omega_iC_i^{'}(F_i^T(x_T))\\ \omega_i=e^{\frac{-L^2_{wd_{D_i}}}{2}} Result(xT)=i=1NωiCi(FiT(xT))ωi=e2LwdDi2

Experiment

在这里插入图片描述
在这里插入图片描述

ablation study

  • visualization

在这里插入图片描述

target domain的feature 变得更加的dense(红色部分)了(并且target和source domain分布更加接近

  • weighting strategy

在这里插入图片描述

  • source distilling for fine-tuning

对比可以看到其实不同域对target影响是远远大于 在同一个域里面不同样本的影响

在这里插入图片描述

通过adversial 训练之后模型更加关注物体 学习到了domain invariant的特征
在这里插入图片描述
感想:

感觉论文表达的意思还是很直接的,也是target domain的分布用source domain的加权分布来逼近,不同的是每一个source domain都训练一个discriminator和特征提取器,并且用wassestein loss类训练,并且作为后续combine的依据。还加入同一个域不同样本的finetune. bonus是加入了一些可视化的解释。

  • 3
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
将神经网络中的知识进行提取,是一种将模型的信息转化为更为简洁和易于理解形式的过程。 神经网络是一种由许多神经元组成的复杂计算模型,它们通过学习和调整权重来解决各种问题。然而,神经网络通常具有大量的参数和复杂的结构,这使得它们难以解释和应用到其他领域。因此,我们需要一种方法来提取和总结神经网络中的知识,以便更好地理解和应用这些模型。 在进行神经网络知识提取时,有几种常见的方法。一种常见的方法是使用可视化技术,如热力图、激活图和网络结构图等,来可视化网络中不同层的活动模式。这些可视化技术能够帮助我们发现网络中的模式和特征,并从中推断出网络的知识。 另一种方法是使用特征提取技术,如卷积神经网络(CNN)的滤波器、自动编码器的隐藏层和循环神经网络(RNN)的隐状态等,来提取网络学习到的重要特征。这些重要特征可以帮助我们更好地理解网络学习到的信息,并将其应用到其他问题中。 此外,还有一种被称为知识蒸馏的技术,它通过训练一个较小的模型来提取大型模型中的知识。知识蒸馏通过引入目标函数和额外的训练策略,使小模型能够学习到大模型中的重要知识,并在不损失太多性能的情况下将其应用到实际问题中。 总而言之,提取神经网络中的知识是一项重要任务,它能够帮助我们更好地理解和应用这些复杂的模型。通过可视化、特征提取和知识蒸馏等方法,我们能够从神经网络中提取出有用的信息,并将其应用到其他领域或解决其他问题中。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值