目录
4. Feature-wise transformation layer
5. Learning the feature-wise transformation layer
1. motivation
虽然基于度量的元学习方法在解决小样本问题时性能良好,但由于特征分布在不同领域之间的巨大差异,这些方法往往无法推广到不可见的领域。
2. contribution
本文所提出的FWT是基于度量学习的,主要创新点如下:
- 引入基于特征的变换层(参数从高斯分布采样)对feature encoder进行modulate(仿射变换)来模拟从不同领域的任务中提取的各种图像特征分布;
- 采用元训练的方式优化特征转化层的高斯分布超参数,在pseudo-seen domain上训练模型参数,在pseudo-unseen domain上训练超参数。
3. 问题定义
基于度量学习的方法解决小样本问题的过程如下:
其中,E是feature encoder,M是metric function。训练目标就是最小化分类损失:
本文希望达到的目标是在测试时能够有效泛化到unseen domains。
4. Feature-wise transformation layer
如图2所示,本文向feature encoder E引入特征变换层对其进行仿射变换。
超参数和表示仿射变换参数采样的高斯分布的标准偏差,设z是feature encoder中输出的维的特征激活图。首先从高斯分布中采样尺度项γ和偏置项β:
那么调制后的特征激活图就为:
在应用时是将转换层插入到encoder的多个层后面。事实上Film采用的也是这种仿射变换的方式。
5. Learning the feature-wise transformation layer
在每个iteration,从seen domians 采样一个 domain和 domain 。给定基于度量的模型encoder 和metric function ,特征变换层参数为,在 task上对模型进行训练:
然后基于得到的模型参数在 task上对特征转换层进行训练:
可以理解为模型参数已经在任务上训练好了,在任务上的损失一定程度上就是domian差异带来的,通过特征转换来对domain shift进行建模。
6. 实验部分
source domain = Mini-ImageNet:
source domain = Mini-ImageNet+3个source domain (leave-one-out):
7. 总结
这种特征转换能都有效是否取决于 domain和target domian有共同的特质?BSCD-FSL (ECCV2020) 中在mini-imagenet上训练,在所给的四个不同数据集上进行meta-test会发现效果并不好,可能有部分原因是因为source domain单一,没有办法更好的训练特征转化层,这一点在source domain = Mini-ImageNet 时也有一定的体现。