夹角余弦or相关系数?(nlp-word2vec之重大发现)

本文探讨了在nlp中使用word2vec计算句子相似度时,选择夹角余弦还是相关系数的问题。通过实例分析,指出对于词频不同的词,相关系数可能更能反映向量的波动一致性,从而在句子语义相似度计算中提供更好的效果。建议对词向量进行方差归一化,以增强不同频率词的特征显著性。
摘要由CSDN通过智能技术生成

夹角余弦or相关系数?(nlp/word2vec之重大发现)

基础知识:看我的这篇文章向量相关分析基础公式

        最近在做nlp方面的工作,计算文字、句子或文章间的相似度,首先要做的是将文字转为向量,用到的方法有:直接法(如vsm)和网络训练法(如word2vec),然后就是计算向量间的相似度,可以通过空间距离、向量夹角和相关性等方法来度量。现在,想用word2vec词向量来计算两个句子相似度,想法是:句子分词,分词后的词向量相加作为句子的语义向量,然后将两个句子的语义向量进行相似度计算。(词向量直接相加作为语义会有些问题的,后面再介绍)

相似度一:夹角余弦

计算两个向量的相似度,首先想到的是计算两个向量A,B的夹角余弦。<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值