论文阅读问题总结(六):Meta-Learning with Domain Adaption for Few-shot Learning Under Domain Shift

1.这篇paper作者提出要解决的问题?

作者提出,大部分现存的小样本元学习领域的一些工作都基于两个假设:
training task和testing task都是从满足同一task distribution中采样出来的小样本数据集。
training tasks有足够的数据集提供给模型训练。
然而在真实的应用场景中,我们要解决的目标任务所在的领域并没有大量数据集用来构建training tasks(与testing task满足同一task distribution)。

2.传统的深度学习的domain adaption和小样本元学习中的domain adaption的区别?

在这里插入图片描述
标准的监督学习:训练数据集和测试集来自同一task。
领域自适应:源域和目标域属于不同task或属于同一task但是数据的分布有了改变。
元学习:通过以满足同一task distribution的task为单位进行训练使得模型可以快速适应满足这一task distribution的new task。
元学习with domain adaption:training tasks和testing tasks来自不同的task distribution,属于task-level的domain adaption。

3.本文提出的解决小样本元学习领域自适应的模型。

解决此问题我们需要优化两个目标:
1.学习一个特征提取器可以正确对new task进行分类。
2.学习到domain invarient的特征。
在这里插入图片描述
我们可以将模型分成3个模块:
1.由 G G G G ′ G^{'} G构成的类似于auto encoder的模块,构建这个模块的目的是通过源域大数据及sample出的task学习到关键信息损失最小的与target domain类似的tasks。使用的loss function为Cycle Consistency Loss。
2.由 G G G

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值