NLP十大Baseline论文简述(十) - sgm

前言:

如果需要对基础概念不了解,可以参考这里。我汇总了论文中涉及的大部分概念,以便更好的理解论文。

目录

NLP十大Baseline论文简述(一) - Word2vec

NLP十大Baseline论文简述(二) - GloVe

NLP十大Baseline论文简述(三) - C2W

NLP十大Baseline论文简述(四) -textcnn

NLP十大Baseline论文简述(五) - chartextcnn

NLP十大Baseline论文简述(六) -fasttext

NLP十大Baseline论文简述(七) - deep_nmt

NLP十大Baseline论文简述(八) - attention_nmt

NLP十大Baseline论文简述(九) - han_attention

NLP十大Baseline论文简述(十) - sgm

1. Paper:

SGM: Sequence Generation Model for Multi-Label Classification
使用序列生成模型做多标签文本分类

2. 背景介绍

  • 多标签文本分类是自然语言处理的重要任务,多标签文本分类可以用到文本分类,推荐以及信息检索中。
  • 但是目前的多标签文本分类模型存在两个问题:没有注意到标签之间的相关性以及不同文本对于不同标签分类的重要性不同。
  • 为了解决这两个问题,我们使用Seq2Seq模型学习标签之间的相关性,使用注意力机制学习不同文本的重要性。
  • 实验证明,我们的模型能够在两个多标签分类数据集上大幅度领先基准模型,并且实验结果表明我们的模型可以学习到标签之间的相关性以及文本对于不同标签的重要性

3. 论文摘要

Multi-label classification is an important yet challenging task in natural language processing. 多标签分类是自然语言处理中的一项重要而富有挑战性的任务。

Itis more complex than single-label classification in that the labels tend to be correlated. 它比单标签分类更复杂,因为标签往往是相关的。

Existingmethods tend to ignore the correlations between labels. 现有的方法往往忽略标签之间的相关性。

Besides, different parts of the text cancontribute differently to predicting different labels, which is not considered by existing models. 此外,文本的不同部分对不同标签的预测作用也不同,这是现有模型没有考虑到的。

In this paper, we propose to view the multi-label classification task as a sequence generationproblem, and apply a sequence generation model with a novel decoder structure to solve it. 在本文中,我们提出将多标签分类任务看作一个序列生成问题,并应用一个具有新的解码器结构的序列生成模型来解决它。

Extensive experimental results show that our proposed methods outperform previous work bya substantial margin. 大量的实验结果表明,我们提出的方法在很大程度上优于以前的工作。

Further analysis of experimental results demonstrates that the proposedmethods not only capture the correlations between labels, but also select the most informativewords automatically when predicting different labels. 对实验结果的进一步分析表明,所提出的方法不仅能捕获标签之间的相关性,而且能在预测不同标签时自动选择最有信息量的词。

4. 研究意义

SGM历史意义

  • Coling2018的Best paper, 提出了一种新奇的模型SGM。
  • 给多标签文本分类提供了一种新的解决思路
  • 在两个多标签文本分类数据集上取得了最好的结果。

5. 论文总结

关键点:

  • 之前的模型没有注意到标签之间的相关性以及不同标签分类的文本重要性不同
  • 本文通过Seq2Seq模型学习标签之间的相关性,通过注意力机制学习不同标签的重要相关文本
  • SGM模型

创新点

  • 将多标签分类任务看成文本生成任务,这可以学习到标签之间的相关性
  • 本文提出了一种decoder结构,它不仅可以捕捉标签之间的关系,而且可以自适应选择不同的文本去分类不同的标签
  • 实验结果发现我们的SGM能够大幅度提高多标签文本分类的效果

启发点

  • 他们忽略了标签之间的相关性,并且它们没有注意到不同文本对于预测不同白浅的重要性不同
  • 然而,beam search不能根本上解决曝光误差的问题,因为这个误差可能出现在每一条可能的路径上,
  • 而beam search只能选择几条最好的路径
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值