Adversarial Multi-task Learning for Text Classification(ACL 2017)

原文链接:

https://arxiv.org/abs/1704.05742?context=cs

 

论文动机:

神经网络模型在多任务学习中显示出良好的应用前景。然而,大多数多任务学习方法仅仅基于是否共享某些组件的参数将不同任务的特征划分为私有空间和共享空间。这些方法存在共享特征空间与特定于任务的特征空间之间相互干扰的问题,共享特征空间中包含部分特定于任务的特征,造成特征冗余,同时特定于任务的特征中也存在共享特征。

 

论文提出了一个对抗性多任务学习框架,通过两个策略减少了共享和私有的潜在特征空间之间的相互干扰:对抗训练、正交约束。对抗性训练用于确保共享特征空间只包含公共的和任务无关的信息,正交约束用于消除私有和共享空间中的冗余特征。模型所学习到的共享知识可以看作是现成的知识,并且可以很容易地转移到新的任务中。

Recurrent Models for Text Classification:

 本文采用LSTM模型进行文本分类,对于一个句子x=\left \{ x_{1},x_{2},...,x_{T} \right \},首先通过lookup层获得每个词对应的词向量,喂入LSTM获得句子表示(LSTM最后一个时间步的输出h_{T}),然后经过一个全连接层,最后通过softmax层进行分类。使用交叉熵损失作为目标函数:

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值