前言:
如果需要对基础概念不了解,可以参考这里。我汇总了论文中涉及的大部分概念,以便更好的理解论文。
目录
NLP十大Baseline论文简述(一) - Word2vec
NLP十大Baseline论文简述(五) - chartextcnn
NLP十大Baseline论文简述(六) -fasttext
NLP十大Baseline论文简述(七) - deep_nmt
NLP十大Baseline论文简述(八) - attention_nmt
NLP十大Baseline论文简述(九) - han_attention
1. Paper:
Convolutional Neural Networks for Sentence Classification
基于卷积神经网络的句子分类
2. 背景介绍
深度学习,词向量和卷积神经网络的发展
3. 论文摘要
- 使用简单的CNN模型在预训练词向量基础上进行微调就可以在文本分类任务上得到很好的结果
- 通过对词向量进行微调而获得的任务指向的词向量能够得到更好的结果。
- 我们也提出了一种即使用静态预训练词向量有使用任务指向词向量的文本分类模型。
- 最终我们再7个文本分类任务重的四个上都得到了最好的分类准确率
We report on a series of experiments with convolutional neural networks (CNN) trained on top of pre-trained word vectors for sentence-level classification tasks. 我们报告了一系列的实验,使用卷积神经网络(CNN)在预先训练的词向量上训练,用于句子级别的分类任务。
We show that a simple CNN with little hyperparameter tuning and static vectors achieves excellent results on multiple benchmarks. 我们证明了一个简单的CNN与小超参数调优和静态向量在多个基准上取得了优秀的结果。
Learning task-specific vectors through fine-tuning offers further gains in performance. 通过微调学习特定于任务的向量可以进一步提高性能。
We additionally propose a simple modification to the architecture to allow for the use of both task-specific and static vectors. 我们还建议对体系结构进行简单修改,以允许使用特定于任务的向量和静态向量。
The CNN models discussed herein improve upon the state of the art on 4 out of 7 tasks, which include sentiment analysis and question classification. 本文所讨论的CNN模型在7个任务中的4个任务的基础上进行了改进,其中包括情感分析和问题分类。
4. 研究成果
在7个文本分类任务重的四个上取得了最好的分类效果
- CNN-rand: 使用随机初始化的词向量
- CNN-static: 使用静态预训练的词向量
- CNN-non-static: 使用微调的预训练的词向量
- CNN-multichannel: 同时使用静态预训练的词向量和微调的预训练的词向量
5. 研究意义
TextCNN历史意义
- 开启了基于深度学习的文本分类的序幕
- 推动了卷积神经网络在NLP的发展
应用领域:
CNN称为自然语言处理中一个重要的特征提取器,用于字符嵌入,机器翻译等各种自然语言处理任务。