Recurrent Neural Network for Text Classification with Multi-Task Learning

本文介绍了一种使用RNN进行多任务学习的方法来改进文本分类效果。通过设计不同信息共享机制的LSTM模型(Uniform-Layer、Coupled-Layer、Shared-Layer Architecture),在多个文本分类任务上取得良好表现。实验结果表明,这种方法能有效利用数据,提高模型性能。
摘要由CSDN通过智能技术生成

引言

Pengfei Liu等人在2016年的IJCAI上发表的论文,论文提到已存在的网络都是针对单一任务进行训练,但是这种模型都存在问题,即缺少标注数据,当然这是任何机器学习任务都面临的问题。
为了应对数据量少,常用的方法是使用一个无监督的预训练模型,比如词向量,实验中也取得了不错的效果,但这样的方法都是间接改善网络效果。
作者提出了一种新的方法,将多个任务联合起来训练,用来直接对网络进行改善,基于RNN设计了三种不同的信息共享机制进行训练,并在四个基准的文本分类任务中获得了较好的效果。

内容

网络结构

Standard LSTM

在这里插入图片描述
最为常见的LSTM结构,利用前面的LSTM网络进行特征提取,后接一个softmax进行分类。

Model-I: Uniform-Layer Architecture

在这里插入图片描述
对于每个任务,共享一个LSTM层和Eembedding层,同时每个任务都拥有自己的Eembedd

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值