Doc2Vec 是基于Word2Vec的思想。
只是巧妙的加了一个paragraph id 以此来表示整个文档的向量分布。
假设一篇文章共有N个段落,每个段落都会有个一个paragraph_id,然后每个段落做PV-DM模型。
和word2vec的主要不同点即为,paragraph_Id 由一个矩阵D构成,他和其他word vector 组成的W矩阵进行concate连接,用来预测中心词。
还有另外一种形式的Doc2vec,即为给定一个paragraph_id,不加入任何单词文本信息,去预测该段落拥有的一些单词。(类似于word2vec 中的Skip-gram模型)称之为Distributed Bag of Words version of paragraph vectors.(PV-DBOW).
Doc2vec的优点:
1.首先,它是一种无监督的算法,并不需要标注数据就可以进行一些训练。
2.其次,他继承了word2vec的语义上的优点。即相似的词,向量距离相近。
3.另外,他还在训练时,考虑了上下文的单词顺序关系。因此,会拥有一些单词顺序上的语义理解。但是又不会像n-gram那样生成很高维度的数据。