文本分类-text classification 推荐论文

 

最近在做文本分类的任务,所以看了比较多的论文,然后想写一些东西,记录这段时间的一个总结,论文主要是找的最近几年的论文阅读的。 受启发于作者这篇链接,就把最近看的一些文本分类比较有用的论文整理一下。

文本分类论文一览表
论文题目发表会议发表年份网络结构论文方法

Convolutional Neural Networks for Sentence Classification

EMNLP

2014cnn最经典的文本分类,采用多窗口卷积神经网络,易于实现。
Recurrent convolutional neural networks for text classificationAAAI2015RCNN提出了一种无人工特征的循环卷积神经网络分类方法,简称RCNN。RCNN首先利用Bi-RNN来捕捉前后的上下文表征,然后将其concat起来,接着使用滤波器filter_size=1的卷积层,并使用最大池化操作得到与文档最相关的向量表征,最后将这些向量输入到softmax层,得到标签的概率表征。
Character-level convolutional networks for text classificationLG2015cnn作者将字符级的文本当做原始信号,并且使用一维的卷积神经网络来处理它。

Hierarchical Attention Networks for Document Classification

NAACL 

2016HAN一种用于文档分类的层次注意力机制网络,简称HAN。在句子级别以及文档级别提出了注意力机制,使得模型在构建文档时是能够赋予重要内容不同的权重。

Bag of Tricks for Efficient Text Classification

EACL

2017fasttext一种简单而又有效的文本分类模型,简称fastText,模型输入一个词序列(一段文本或者一句话),序列中的词与词组成特征向量,然后特征向量通过线性变换映射到中间层,中间层再映射到标签。输出这个词序列属于不同类别的概率。充分利用了h-softmax的分类功能,遍历分类树的所有叶节点,找到概率最大的label(一个或者N个)。

Deep Pyramid Convolutional Neural Networks for Text Categorization

ACL

2017DPCNN提出了一种单词级别的深层CNN模型,来捕捉文本的全局语义表征,该模型在不增加太多的计算开销的情况下,通过增加网络深度可以获得最佳的性能,简称DPCNN。
Very deep convolutional
networks for text classification
EACL2017VDCNN

文章利用了29个卷积层,提升文本分类的准去率。

Combining Knowledge with Deep Convolutional Neural Networks for Short Text Classification

IJCAI2017 论文引入知识库概念化短文本,将概念知识和短文本embedding结合起来。其中针对word和concept采用预训练word embedding并保持不变,允许字符级别的embedding在训练过程更新。整体结构为CNNs架构,均为一层输入,两层卷积,两层池化,两层隐含层,其中一路针对文本的word和concept embedding,一路针对字符embedding(输入为编码的字符序列)。
Generative and Discriminative Text Classification with Recurrent Neural NetworksIJCAL2017D-Lstm生成模型比判别模型具有更加优异的性能,经过生成模型和判别模型的建模给出结论。

Universal Language Model Fine-tuning for Text Classification

ACL2018ULMFIT利用pretrain语言模型(language model),但是语言模型容易在小型数据上过拟合,且当训练分类器时容易忘记pretrain语言模型学到的知识,本文提出一种语言模型的精调(fine-tuning)技巧,用于nlp领域的迁移学习(transfer learning)。
Joint Embedding of Words and Labels for Text ClassificationACL2018LEAM将标签label与输入文本word embedding在相同空间进行词嵌入,并引入attention框架,计算输入文本text sequence和标签label 之间attention系数。
Disconnected recurrent neural networks for text categorizationACL2018DRNN

试图让RNN也能像CNN一样捕捉到local和position-invariant的特征。这样做之后,RNN失去了长时间的依赖,变成了每个time step只依赖周围的词。

Investigating Capsule Networks with Dynamic Routing for Text Classification

EMNLP2018 先利用标准的卷积网络,通过多个卷积滤波器提取句子的局部语义表征。然后将CNN的标量输出替换为向量输出胶囊,从而构建Primary Capsule层。接着输入到作者提出的改进的动态路由,得到卷积胶囊层。最后将卷积胶囊层的胶囊压平,送入到全连接胶囊层,每个胶囊表示属于每个类别的概率。
JUMPER: Learning When to Make Classification Decisions in ReadingIJCAI2018JUMPER将文本理解建模为一个离散的决策过程。通常在阅读过程中,人们寻找线索、进行推理,并从文本中获取信息;受到人类认知过程的启发,我们通过将句子逐个地递送到神经网络来模仿这个过程。在每个句子中,网络基于输入做出决策(也称为动作),并且在该过程结束时,该决策序列可以视为是对文本有了一些 理解。
Learning Structured Representation for Text Classification via Reinforcement LearningAAAI2018 本文研究了如何学习文本分类的结构化表示。与大多数既不使用结构又依赖于预先指定结构的现有表示模型不同,我们提出了一种强化学习(RL)方法,通过自动覆盖优化结构来学习句子表示。
Adaptive Learning of Local Semantic and Global Structure Representations for Text ClassificationCOLING2018SNN语义和结构信息在语料库和实例级别对文本表示的贡献不均,作者利用SNN网络结构,提出自适应学习语义和结构信息来做文本分类。
Neural Attentive Bag-of-Entities Model for Text Classification CoNLL 2019

NABOE

从语料库中的单词构建词汇表,而是使用实体以及相关知识来构建实体知识库。通过向量嵌入和与词相关的实体的向量嵌入,给出了词的最终表示。

 

Incorporating Priors with Feature Attribution on Text ClassificationACL2019 我们的方法将特征归因集成到目标函数中,以允许机器学习从业人员将先验知识纳入模型构建。

Enhancing Local Feature Extraction with Global Representation for Neural Text Classification
EMNLP2019GELE论文提出两种编码方式来提取文本分类特征,第一层编码提取全局特征,第二层通过全局编码指引局部特征提取。

Graph Convolutional Networks for Text Classification

AAAI2019GCN作者构建了一个包含word节点和document节点的大型异构文本图,显式地对全局word利用co-occurrence信息进行建模,然后将文本分类问题看作是node分类问题。
Hierarchical Text Classification with Reinforced Label AssignmentEMNLP2019  
Hierarchical Attention Prototypical Networks for Few-Shot Text ClassificationEMNLP2019  
EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification TasksEMNLP2019  
Induction Networks for Few-Shot Text ClassificationEMNLP2019  

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值