首先得明白,这个面试题 在现在这个预训练模型横行的时代,被问的几率是很小的,LDA也是很老的东西了,但为了整个博客内容知识体系的完整性,这里还是整理一下这道面试题的打法
欢迎大家点赞、收藏,用作面试准备~
(Word2Vec原理可以看这里)
Word2Vec主要包含两个模型,一个是CBOW模型,上下文预测中间词,还有一个是SG模型,中间词预测上下文,Word2Vec通过训练这两个模型,得到模型训练的副产物-词向量。
LDA是基于文档中单词的共现关系来对单词进行主题聚类,或者说是对“文档-单词”矩阵进行分解为“文档-主题”和“主题-单词”。
接下来我们对其区别和联系进行具体分析:
- Word2Vec生成的词向量,由于词向量信息的丰富,不同词向量之间会存在一定的联系,那么其实也可以被理解为一种聚类,那么这样就和LDA的主题词聚类对应上了。
- Word2Vec是基于上下文的,而LDA是基于隐含的主题的,从更细节的角度去理解,Word2Vec里关注的更多是语义、语法级别的信息,而LDA关注的是更高的level-文章主题信息。甚至可以说Word2Vec关注细粒度信息,而LDA关注粗粒度。
这个面试题 在现在这个预训练模型横行的时代,被问的几率是很小的,LDA也是很老的东西了,但为了整个博客内容知识体系的完整性,这里还是整理一下这道面试题的打法
欢迎大家点赞、收藏,用作面试准备~
![](https://i-blog.csdnimg.cn/blog_migrate/2c659232926ea694dadda222a39ec456.png)