1、Word2Vec的这种方案,可以看作是通过前后词来预测当前词,而自编码器或者SVD则是通过前后词来预测前后词;
2、Word2Vec最后接的是softmax来预测概率,也就是说实现了一个非线性变换,而自编码器或者SVD并没有。
看到一个不错的博文,地址:https://spaces.ac.cn/archives/4233
Neural Word Embedding as Implicit Matrix Factorization看后补充,word2vec相当于一个PMI矩阵的分解
1、Word2Vec的这种方案,可以看作是通过前后词来预测当前词,而自编码器或者SVD则是通过前后词来预测前后词;
2、Word2Vec最后接的是softmax来预测概率,也就是说实现了一个非线性变换,而自编码器或者SVD并没有。
看到一个不错的博文,地址:https://spaces.ac.cn/archives/4233
Neural Word Embedding as Implicit Matrix Factorization看后补充,word2vec相当于一个PMI矩阵的分解