前言
还是以回答几个问题的形式介绍词向量
一、为什么介绍词向量推理(W2V)?
词向量推理(W2V)的优势是什么?
似乎回答了这个问题就能解释词向量出现的意义和价值。
第一点:前人所使用表示词的方法中全部忽略了上下文或者附近词的信息,都是以单个词的词义来表示单词的。
第二点:LSA过大的词袋,词的部分含义也会消失。
综上所述,W2V解决了不仅可以表示上下文之间的关系而且还能表示更大词袋的向量。
可以捕捉更疯不的目标词含义。
二、如何得到W2V?
既然它如此优秀,应该如何计算才能得到呢?
三、是否有其他更优秀的词向量表示呢?
因为word2vec模型无法收敛,而通过SVD方法得到全局最优解。
GloVe(global vectors of word co-occurrence