Adversarial Multi-task Learning for Text Classification(ACL 2017)

本文提出了一种对抗性多任务学习框架,旨在减少共享和私有特征空间的干扰。通过对抗训练确保共享特征仅包含公共信息,正交约束消除冗余特征,提升文本分类性能。实验表明,该模型在多个任务上优于单任务和传统多任务模型。
摘要由CSDN通过智能技术生成

原文链接:

https://arxiv.org/abs/1704.05742?context=cs

 

论文动机:

神经网络模型在多任务学习中显示出良好的应用前景。然而,大多数多任务学习方法仅仅基于是否共享某些组件的参数将不同任务的特征划分为私有空间和共享空间。这些方法存在共享特征空间与特定于任务的特征空间之间相互干扰的问题,共享特征空间中包含部分特定于任务的特征,造成特征冗余,同时特定于任务的特征中也存在共享特征。

 

论文提出了一个对抗性多任务学习框架,通过两个策略减少了共享和私有的潜在特征空间之间的相互干扰:对抗训练、正交约束。对抗性训练用于确保共享特征空间只包含公共的和任务无关的信息,正交约束用于消除私有和共享空间中的冗余特征。模型所学习到的共享知识可以看作是现成的知识,并且可以很容易地转移到新的任务中。

Recurrent Models for Text Classification:

 本文采用LSTM模型进行文本分类,对于一个句子

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值