目录
YoonKim在2014EMNLP发的论文。
TextCNN模型作为文本分类模型,通过验证实验以及业界的共识,在文本分类任务中,CNN模型已经能够取到比较好的结果,虽然在某些数据集上效果可能会比RNN稍差一点,但是CNN模型训练的效率更高。
所以,一般认为CNN模型在文本分类任务中是兼具效率与质量的理想模型。
模型原理
与传统图像的CNN网络相比,TextCNN的输入层为Embedding词向量,卷积使用一维卷积。
整个模型由四部分构成:输入层、卷积层、池化层、全连接层。
1.1 输入层
输入是一个固定长度L的文本序列。L可以前期通过语料分析得到。如果输入的文本比L长则截断,短的话则需要补充。然后将之进行向量化。作者在这里给了几种方式:
(1)static(静态词向量)
直接使用预训练模型(word2vec、fastText或者Glove)得到词向量,并且在TextCNN模型训练过程中不再调整词向量。
(2)non-static(非静态词向量)
预训练的词向量作为初始化, 训练过程中再对词向量进行微调。
(3)multiple channel&#x