夹角余弦or相关系数?(nlp/word2vec之重大发现)
基础知识:看我的这篇文章向量相关分析基础公式
最近在做nlp方面的工作,计算文字、句子或文章间的相似度,首先要做的是将文字转为向量,用到的方法有:直接法(如vsm)和网络训练法(如word2vec),然后就是计算向量间的相似度,可以通过空间距离、向量夹角和相关性等方法来度量。现在,想用word2vec词向量来计算两个句子相似度,想法是:句子分词,分词后的词向量相加作为句子的语义向量,然后将两个句子的语义向量进行相似度计算。(词向量直接相加作为语义会有些问题的,后面再介绍)
相似度一:夹角余弦
计算两个向量的相似度,首先想到的是计算两个向量A,B的夹角余弦。<