word2vec 与 doc2vec的区别:
两者从字面意思上就可以大致判断出区别来,word2vec主要针对与单词,而doc2vec主要针对于文本:
顾名思义,Word2Vec是在单个单词上训练的,而Doc2vec是在可变长度的文本上训练的,因此,每个模型可以完成的任务是不同的。使用Word2Vec,您可以根据上下文预测单词,反之则可使用Vera,而使用Doc2vec则可以测量完整文档之间的关系。
概述:
文本向量化是自然语言处理中的基础工作,文本的表示直接影响到了整个自然语言处理的性能。
最简单的文本向量化方式是采用one-hot的词袋模型(Bag of word)进行,将单词转换成独热编码,但是维度过大所以渐渐的出现了很多新的方法:word2vec 与 doc2vec
Bag of word的缺点:
- 维度灾难
- 无法保留词序的信息
- 存在语义鸿沟(相同的单词往往在不同的句子中有不同的意思)
word2vec
Word2vec 是 Word Embedding 的方法之一,他是 2013 年由谷歌的 Mikolov 提出了一套新的词嵌入方法。
在 Word2vec 出现之前,已经有一些 Word Embedding 的方法,但是之前的方法并不成熟,也没有大规模的得到应
Word Embedding?
word embedding 是文本表示的一类方法。跟 one-hot 编码和整数编码的目的一样,不过他有更多的优点。
![](https://ripshun.com/wp-content/uploads/2020/11/1_sAJdxEsDjsPMioHyzlN3_A-1024x765.png)