本章节主要研究内容:基于word2vec 提取特征 + 文本分类
finetune
就是用别人训练好的模型,加上我们自己的数据,来训练新的模型。finetune相当于使用别人的模型的前几层,来提取浅层特征,然后在最后再落入我们自己的分类中。 finetune的好处在于不用完全重新训练模型,从而提高效率,因为一般新训练模型准确率都会从很低的值开始慢慢上升,但是fine tune能够让我们在比较少的迭代次数之后得到一个比较好的效果。 在数据量不是很大的情况下,finetune会是一个比较好的选择。但是如果你希望定义自己的网络结构的话,就需要从头开始了。
词向量在NLP被广泛应用,通过引入word2vec,不仅可以对单个词进行词向量表示,而且可以对整个句子或文章进行表示。 想象一下,能够使用固定长度的向量表示整个句子,然后我们可以使用标准的分类算法去分类。是一件很神奇的事情。
本章以Word2Vec 为基础,来解决文本分类问题。
主要涉及内容包括
- 数据预处理
- 全量训练word2vec模型
- 增量训练word2vec模型(fine tune)
- 特征工程处理
- LR 和 xgboost 模型训练
- 数据预测在线预测