论文阅读】【元学习/小样本学习】【ICLR2019】META-LEARNING WITH DOMAIN ADAPTATION

论文阅读】【元学习/小样本学习】【ICLR2019】META-LEARNING WITH DOMAIN ADAPTATION

问题阐述

在传统的小样本学习/元学习中,meta-training阶段的task从一个task distribution τ t r a i n τ_{train} τtrain得到(各个task间独立同分布);meta-testing阶段的task从另一个task distribution τ t e s t τ_{test} τtest得到。现有的元学习方法假设 τ t r a i n = τ t e s t τ_{train}=τ_{test} τtrain=τtest,这篇论文讨论的是 τ t r a i n ! = τ t e s t τ_{train}!=τ_{test} τtrain!=τtest的情况。
简单地说就是,meta-training和meta-testing阶段的task的样本来自不同的数据集,但是每一个task的support set和query set的样本来自同一个数据集。(task-level domain adaptation)
在这里插入图片描述
在这里插入图片描述

作者假设meta-training阶段会用到meta-testing的unlabeled的数据。(we assume that the model has access to the unlabeled instances in the domain of the few-shot test tasks prior to the training procedure, and utilize these instances for incorporating the domain-shift information. )

Meta Learning with Domain Adaptation (MLDA)

在这里插入图片描述

损失函数:
在这里插入图片描述
第一项就是分类损失:
在这里插入图片描述
第二项损失包含两项:
L d a = L G A N + L c y c l e L_{da} = L_{GAN} + L_{cycle} Lda=LGAN+Lcycle
GAN Loss:
在这里插入图片描述
task-cycle-consistency loss:
在这里插入图片描述

额外的改进:
Identity Loss:
L i d t = E x t e s t − D t e s t [ ∣ ∣ G ( x ) − x ∣ ∣ 1 ] L_{idt} = E_{x^{test}-D_{test}[||G(x)-x||_1]} Lidt=ExtestDtest[G(x)x1]
reverse direction mapping:
L c y c l e 2 = E x t e s t − D t e s t [ ∣ ∣ G ( G ′ ( x ) ) − x ∣ ∣ 1 ] L_{cycle2} = E_{x^{test}-D_{test}[||G(G'(x))-x||_1]} Lcycle2=ExtestDtest[G(G(x))x1]

实验结果

在这里插入图片描述
在这里插入图片描述

参考
关于CycleGAN loss的一些解读

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值