Dynamic Distillation Network for Cross-Domain Few-Shot Recognition with Unlabeled Data, NeurIPS 2021

  • motivation

STARTUP(ICLR2021)中提出基于self-training的思想用target domain的去标记数据联合训练模型。但STARTUP中使用在base classes上预先训练得到的网络,为未标记的目标样本创建软标签。域间差异较大时,使用固定的预训练模型将目标图像投影到基数据集的类域中可能是次优的。

本文的问题设置和STARTUP中是一致的:带标签的源域样本+去标签的目标域样本

  • contribution

  1. 使用基于动态蒸馏的方法,同时使用标记源数据和未标记目标数据来学习目标域上的更好表示;
  2. 在BSCD-FSL(ECCV2020)上1-shot上平均提高4.4%,5-shot上平均提高3.6%。
  • 核心内容

1)整体框架

2)Encoder

给定嵌入网络f_s和分类器g_s ,那么在base datasets上有监督的分类损失就为:

其中,p是预测标签:

3)Dynamic distillation

STARTUP中类似地, 本文也引入了额外的teacher encoder f_t和teacher classifier g_t 为未标记的图像集D_U 生成伪标签。分别为无标签样本的弱增广样本 x_i^w和强增广样本x_i^s 预测伪标签:

弱增广样本x_i^w的伪标签p_i^w作为强增广样本 x_i^s的软目标(soft-target),那么就可以得到蒸馏损失为:

l_U可理解为一致性正则化器,可以预测图像不同增强版本的相似分数,也可以理解成自监督损失。

根据student weightsteacher weights进行更新:

  • 实验部分

  • 总结

在解决跨域问题时,尤其是target domain source domain之间domain shift非常显著的情况下,把target domain 中无标记数据拿过来用自监督的方法训练特征提取器确实是一种很取(zuo)巧(bi)的方法。(手动狗头保命)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值