【NLP】天池新闻文本分类(四)——基于深度学习的文本分类1
前言
本文是NLP之新闻文本分类挑战赛(赛题链接)。
的第四篇:基于深度学习得文本分类1。上一篇是基于机器学习的文本分类,使用的是传统机器学习算法来实现新闻分类建模:介绍了几种文本的表示方法,如One-hot、Bag of words、N-gram、TF-IDF,并且通过sklearn分别实现了Count Vectors + RidgeClassifier、TF-IDF + RidgeClassifier、TF-IDF + LogisticRegression三种组合方法的建模和预测。但是上述方法存在几点思考:转换得到的向量维度很高,从而需要较长的训练时间;没有考虑文本单词之间的关系,只是进行了单词统计等。基于以上,下面介绍深度学习的文本分类,可以将其映射到一个低维度空间,比较典型的方法有:FastText、Word2Vec和Bert。本篇文章将介绍FastText,同时将在后续文章介绍Word2Vec和Bert。
深度学习之FastText介绍
FastText是一种典型的深度学习词向量的表示方法,它非常简单通过Embedding层将单词映射到稠密空间,然后将句子中所有的单词在Embedding空间中进行平均,进而完成分类操作。
FastText是一个三层的神经网络,输入层、隐含层和输出层,如下图所示&#