小样本学习记录————在提取特征中对抗的小样本Meta-Learning Adversarial Domain Adaptation Network for Few-Shot(MLADA)

小样本学习记录————在提取特征中对抗的小样本Meta-Learning Adversarial Domain Adaptation Network for Few-Shot(MLADA)

Meta-Learning Adversarial Domain Adaptation Network for Few-Shot

小样本的文本分类主流研究方法

  • 元学习
  • 迁移学习

几篇经典文献

  1. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(2019)微调参数的方法
  2. XLNet: Generalized Autoregressive Pretraining for Language Understanding(2019)微调参数的方法
  3. Few-Shot Transfer Learning for Text Classification With Lightweight Word Embedding Based Models(2019)改进的基于预训练词嵌入的层次化知识池策略
  4. Effective Few-Shot Classification with Transfer Learning(2020)二进制分类器

元学习对抗性领域自适应网络(MLADA)

将GAN的思想引入小样本学习,增加了元知识生成器和鉴别器结构,来提高小样本分类的效果。

网络结构

在这里插入图片描述

单词表示层(Word Representation Layer): 使用预训练的FastText.zip来达到对单词进行embedding的作用。

域判别器(Domain Discriminator): 源域:支持集和查询集。构建一个三层前馈神经网络可以识别输入是否来自源域。

元知识生成器(Meta-knowledge Generator): 主要由双向LSTM和一个全连接层构成。利用双向神经网络多每一个时间步的内容进行embedding。

交互层(Interaction Layer): 可转移的特征:由元生成器生成的向量;句子特定的特征:单词的embedding。交互层用两种特征来生产输出,用来作为最后分类器的输入。

分类器(Classifier): 使用岭回归作为分类器。(1.使用神经网络,支持集太少不能充分训练;2.而且岭回归允许闭环解决方案,并且减少过拟合。)

训练过程

整个算法中引入了GAN的思想所以在训练过程中也有所不同。从模型结构有三个参数需要进行训练。

  • 元 知 识 生 成 器 的 参 数 : β {元知识生成器的参数:}\beta β
  • $ {域判别器参数:}\mu$
  • 分 类 器 参 数 : θ {分类器参数:}\theta θ
    训练步骤
  • Step1:在每一个情境中,我们首先固定生成器和判别器的参数,使用支持集,均方差来训练分类器参数。

    L R R ( θ ) = 1 2 m ∑ i = 1 m [ ( ( f θ ( x ( i ) − y ( i ) ) 2 + λ ∑ j = 1 n θ j 2 ) ] \mathcal L^{RR}(\theta)= \frac 1 {2m}\sum_{i=1}^m[((f_\theta(x^{(i)}-y^{(i)})^2+\lambda\sum_{j=1}^n\theta_j^2)] LRR(θ)=2m1i=1m[((fθ(x(i)y(i))2+λj=1nθj2)]

    • m表示支持集样本数量
    • f θ f_\theta fθ表示岭回归
    • ∑ j = 1 n θ j 2 \sum_{j=1}^n\theta_j^2 j=1nθj2表示F-范数
    • λ \lambda λ表示正则化系数
  • Step2:固定生成器和分类器的参数,使用查询集和源域,交叉熵损失来进行训练判别器的参数。

    L D ( μ ) = − 1 2 m ∑ i = 1 2 m [ y d ( i ) l o g D μ ( k ( i ) ) + ( 1 − y d ( i ) ) l o g ( 1 − D μ ( k ( i ) ) ) ] \mathcal L^D(\mu) = - \frac 1 {2m}\sum_{i=1}^{2m}[y_d^{(i)}logD_\mu(k^{(i)})+(1-y_d^{(i)})log(1-D_\mu(k^{(i)}))] LD(μ)=2m1i=12m[yd(i)logDμ(k(i))+(1yd(i))log(1Dμ(k(i)))]

    • m表示查询集和源域的样本数量
    • k表示元知识向量
  • Step3:固定判别器和分类器的参数,利用查询集和源域,最后分类结果的交叉熵损失和判别器的相反的损失来更新生成器的参数。

    L G ( β ) = C E L o s s ( f ( W ⋅ G β ( W ) ) , y ) − L D \mathcal L^G(\beta)=CELoss(f(W·G_\beta(W)),y)-\mathcal L^D LG(β)=CELoss(f(WGβ(W)),y)LD

    • G β ( W ) G_\beta(W) Gβ(W)表示生成器生成的元知识特征向量
    • W表示词向量矩阵
    • W ⋅ G β ( W ) W·G_\beta(W) WGβ(W)表示句子特征和元知识特征的融合
    • f ( W ⋅ G β ( W ) ) f(W·G_\beta(W)) f(WGβ(W))表示岭回归结果
    • -表示判别器的相反损失

元知识生成器在所有训练集上都进行了优化,而分类器则是针对每个情景从头开始训练的。 这应该比较好理解,我们希望可以得到适应于广泛任务的元知识,所以利用所有的数据对元知识生成器进行提取,而针对不同情景,分类的分布可能是不同的,所以从头开始训练。

算法效果

在这里插入图片描述

MLADA在这四个常见的数据集上都取得了最好的效果,可能是因为使用了100个情景的原因,而Reuters样本数最少所以在Reuters上效果特别好。

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值