点积相似度、余弦相似度、欧几里得相似度

看starspace的时候发现它实现了dot和cos两种similarity的度量方式,这里总结一下:

余弦相似度衡量两个向量在方向上的相似性,而不care两个向量的实际长度,A和B的长度即使是一个超级短一个超级长的情况下,二者的余弦相似性也可能为1(即theta=0,此时两个向量重合);

存在的问题[1]:
余弦相似度更多的是从方向上区分差异,而对绝对的数值不敏感
比如用户对内容评分,5分制。A和B两个用户对两个商品的评分分别为A:(1,2)和B:(4,5)。我们分别用两种方法计算相似度。使用余弦相似度得出的结果是0.98,看起来两者极为相似,但从评分上看X似乎不喜欢这两个东西,而Y比较喜欢。造成这个现象的原因就在于,余弦相似度没法衡量每个维数值的差异,对数值的不敏感导致了结果的误差。
需要修正这种不合理性,就出现了调整余弦相似度,即所有维度上的数值都减去一个均值。
比如A和B对两部电影评分的均值分别是(1+4)/2=2.5,(2+5)/2=3.5。那么调整后为A和B的评分分别是:(-1.5,-1.5)和(1.5,2.5),再用余弦相似度计算,得到-0.98,相似度为负值,显然更加符合现实。
修正的余弦相似度可以说就是对余弦相似度进行归一化处理的算法,公式如下:


欧几里得相似度:


点积相似度

点积相似度是一个比较有意思的概念,我们在word2vec和deepwalk等模型的构建过程中都有它的身影;以word2vec的常规的softmax的损失函数为例

我们希望点积之后的结果(即Uc*Vw)经过softmax之后能够和真实的分布情况一样(也就是能够尽量为[0,0,0,...1...,0,0,0],其中1是中心词对应的index),那么这样整个word2vec的训练的过程就跃然纸上了:

对于点积的公式:

可以看到,我们在优化点积的时候实际上是在优化a b的模长和二者的夹角(a和b分别是embedding空间的a向量和b向量),以word2vec为例,使用负采样的方式,a和b在同一个窗口内,其对应标签为1,则模型训练肯定是希望|a|*|b|*costheta 越接近1越好,那么在优化的过程中:

假设a和b的模长均为1且固定,则theta可能会越来越小(theta越小则costheta越接近于1,则整个a*b越接近于1),那么在embedding空间发生的事情就是,a和b向量越来越接近,这就和我们的目的达成一致,

当然这是理想的情况,一般来说|a|和|b|的模场也是会发生变化的,他们和cos theta共同决定最终的训练结果,所以一般来说,两个相近的词其最终的embedding向量比较不容易完全重合,而是相互之间相对于其它不相关的词更加靠近;


补充,一般我们进行点积相似性度量的时候,例如召回层用embedding点积进行相似度计算,会进行l2归一化处理,

归一化之后的embedding向量进行点积实际上就是计算夹角余弦值;

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值