文章目录
相似度计算方法
1. 文本距离
1.1 编辑距离(Edit Distance)
编辑距离,英文叫做 Edit Distance,又称 Levenshtein 距离,是指两个字串之间,由一个转成另一个所需的最少编辑操作次数。**如果两个字符串的编辑距离越大,说明它们越是不同。**许可的编辑操作包括将一个字符替换成另一个字符,插入一个字符,删除一个字符。
1.2 最长公共子串、最长公共子序列(Long Common Subsequence,LCS)
最长公共子序列问题:给定两个字符串, S S S(长度 n n n)和 T T T(长度 m m m),求解它们的最长公共子序列。其中公共子序列是指:按从左到右顺序在 S S S、 T T T中均出现的字符序列,子序列中字符在 S S S、 T T T中无需连续。
例:
S
S
S = ABAZDC
、
T
T
T = BACBAD
,
S
S
S和
T
T
T的最长公共子序列为:ABAD
。
最长公共子串问题:给定两个字符串, S S S(长度 n n n)和 T T T(长度 m m m),求解它们的最长公共子串。其中公共子串是指:按从左到右顺序在 S S S、 T T T中均出现的字符串,子串中字符在 S S S、 T T T中需要连续。
例:
S
S
S = ABAZDC
、
T
T
T = BACBAD
,
S
S
S和
T
T
T的最长公共子串为:BA
。
1.3 句向量表示(Word Averaging Model,WAM)
获取 Sentence Vector :我们首先对句子进行分词,然后对分好的每一个词获取其对应的 Vector,然后将所有 Vector 相加并求平均,这样就可得到 Sentence Vector。
1.4 WMD
WMD(Word Mover’s Distance)中文称作词移距离。通过寻找两个文本之间所有词之间最小距离之和的配对来度量文本的语义相似度。是EMD(Earth Mover’s Distance)在NLP领域的延伸。
两个文本中每一个词都需要进行一一对应,计算一下相似度,并且是有侧重地计算相似度。
c
(
i
,
j
)
c(i,j)
c(i,j)表示单词
i
,
j
i, j
i,j之间的相似度计算,而
T
i
j
T_{ij}
Tij表示对于这种相似度的权重。由于两个文本之间的单词两两之间都要进行相似度计算,可知T是一个矩阵。
d
i
d_i
di是归一化词频(normalized BOW),单词的重要程度与词的出现频率相关(并且归一化)。如果一个词
i
i
i在文本中出现的次数为
c
i
c_i
ci,它的归一化词频为:
d
i
=
c
i
∑
j
=
1
n
c
j
d_i=\frac{c_i}{\sum_{j=1}^{n}c_j}
di=∑j=1ncjci.
min
T
≥
0
∑
i
,
j
=
1
n
T
i
j
c
(
i
,
j
)
s
.
t
:
∑
j
=
1
n
T
i
j
=
d
i
∀
i
∈
1
,
…
,
n
∑
i
=
1
n
T
i
j
=
d
j
′
∀
j
∈
1
,
…
,
n
\min_{T\ge0}\sum_{i,j=1}^{n}T_{ij}c(i,j)\\ s.t: \sum_{j=1}^{n}T_{ij}=d_i \quad \forall i\in{1,\dots,n}\\ \sum_{i=1}^{n}T_{ij}=d_j' \quad \forall j\in{1,\dots,n}\\
T≥0mini,j=1∑nTijc(i,j)s.t:j=1∑nTij=di∀i∈1,…,ni=1∑nTij=dj′∀j∈1,…,n
计算两个文档之间的WMD就要求解一个大型的线性规划问题。
1.5 BM25
BM25 是一种用来评价搜索词和文档之间相关性的算法,它是一种基于概率检索模型提出的算法:有一个 q u e r y query query和一批文档Ds,现在要计算 q u e r y query query和每篇文档D之间的相关性,先对 q u e r y query query进行切分,得到单词 q i q_i qi,然后单词的分数由3部分组成:
- 每个单词的权重 W i W_i Wi,可以由IDF表示, I D F ( q i ) = l o g ( N − n ( q i ) + 0.5 n ( q i ) + 0.5 ) IDF(q_i)=log(\frac{N-n(q_i)+0.5}{n(q_i)+0.5}) IDF(qi)=log(n(qi)+0.5N−n(qi)+0.5)
- 相关性分数R:单词和D之间的相关性,单词和query之间的相关性
S c o r e ( Q , d ) = ∑ i = 1 n W i ⋅ R ( q i , d ) R ( q i , d ) = f i ⋅ ( k 1 + 1 ) f i + K ⋅ q f i ⋅ ( k 2 + 1 ) q f i + k 2 K = k 1 ⋅ ( 1 − b + b ⋅ d l a v g d l ) Score(Q,d)=\sum_{i=1}^n W_i \cdot R(q_i, d)\\ R(q_i,d)=\frac{f_i\cdot (k_1+1)}{f_i+K}\cdot \frac{qf_i\cdot (k_2+1)}{qf_i+k_2}\\ K=k_1\cdot (1-b+b\cdot \frac{dl}{avgdl}) Score(Q,d)=i=1∑nWi⋅R(qi,d)R(qi,d)=fi+Kfi⋅(k1+1)⋅qfi+k2qfi⋅(k2+1)K=k1⋅(1−b+b⋅avgdldl)
- d l dl dl是文档 d d d的长度, a v g d l avgdl avgdl是整个文档集中文档的平均长度;
- f i f_i fi是单词 q i q_i qi在文档 d d d中的词频, q f i qf_i qfi是单词 q i q_i qi在 q u e r y query query中的词频;
- k 1 , b k_1, b k1,b是参数(通常 k 1 = 1.2 , b = 0.75 k_1=1.2, b=0.75 k1=1.2,b=0.75);
- 简化情况下, q u e r y query query比较短,查询词 q i q_i qi在 q u e r y query query中只会出现一次,即 q f i = 1 qf_i=1 qfi=1,因此可以简化 R ( q i , d ) R(q_i,d) R(qi,d)中 q f i ⋅ ( k 2 + 1 ) q f i + k 2 = 1 \frac{qf_i\cdot (k_2+1)}{qf_i+k_2}=1 qfi+k2qfi⋅(k2+1)=1.
综上,BM25算法的相关性得分公式可总结为:
S
c
o
r
e
(
Q
,
d
)
=
∑
i
=
1
n
I
D
F
(
q
i
)
⋅
f
i
⋅
(
k
1
+
1
)
f
i
+
k
1
⋅
(
1
−
b
+
b
⋅
d
l
a
v
g
d
l
)
Score(Q,d)=\sum_{i=1}^n IDF(q_i) \cdot \frac{f_i\cdot (k_1+1)}{f_i+k_1\cdot (1-b+b\cdot \frac{dl}{avgdl})}
Score(Q,d)=i=1∑nIDF(qi)⋅fi+k1⋅(1−b+b⋅avgdldl)fi⋅(k1+1)
TF/IDF 和 BM25 同样使用逆向文档频率来区分普通词(不重要)和非普通词(重要),同样认为文档里的某个词出现次数越频繁,文档与这个词就越相关。实际上一个普通词在同一个文档中大量出现的作用会由于该词在 所有 文档中的大量出现而被抵消掉。
BM25 有一个上限,文档里出现 5 到 10 次的词会比那些只出现一两次的对相关度有着显著影响。但是如图 TF/IDF 与 BM25 的词频饱和度 所见,文档中出现 20 次的词几乎与那些出现上千次的词有着相同的影响。
2. 统计指标
2.1 Cosine Similarity
余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量。Cosine Similarity的绝对值越大,两向量越相似,值为负,两向量负相关。
C
o
s
i
n
e
S
i
m
i
l
a
r
i
t
y
(
X
,
Y
)
=
∑
i
=
1
n
x
i
y
i
∑
i
=
1
n
x
i
2
∑
i
=
1
n
y
i
2
CosineSimilarity(X,Y)=\frac{\sum_{i=1}^n x_iy_i}{\sqrt{\sum_{i=1}^n x_i^2}\sqrt{\sum_{i=1}^n y_i^2}}
CosineSimilarity(X,Y)=∑i=1nxi2∑i=1nyi2∑i=1nxiyi
余弦相似度更多的是从方向上区分差异,而对绝对的数值不敏感,因此没法衡量每个维度上数值的差异,会导致这样一种情况:
用户对内容评分,按5分制,X和Y两个用户对两个内容的评分分别为(1,2)和(4,5),使用余弦相似度得到的结果是0.98,两者极为相似。但从评分上看X似乎不喜欢2这个 内容,而Y则比较喜欢,余弦相似度对数值的不敏感导致了结果的误差,需要修正这种不合理性就出现了调整余弦相似度,即所有维度上的数值都减去一个均值,比如X和Y的评分均值都是3,那么调整后为(-2,-1)和(1,2),再用余弦相似度计算,得到-0.8,相似度为负值并且差异不小,但显然更加符合现实。
调整余弦相似度(Adjusted Cosine Similarity):
A
d
j
u
s
t
e
d
C
o
s
i
n
e
S
i
m
i
l
a
r
i
t
y
(
X
,
Y
)
=
∑
i
=
1
n
(
x
i
−
1
n
∑
i
=
1
n
x
i
)
(
y
i
−
1
n
∑
i
=
1
n
y
i
)
∑
i
=
1
n
(
x
i
−
1
n
∑
i
=
1
n
x
i
)
2
∑
i
=
1
n
(
y
i
−
1
n
∑
i
=
1
n
y
i
)
2
AdjustedCosineSimilarity(X,Y)=\frac{\sum_{i=1}^n (x_i-\frac{1}{n}\sum_{i=1}^n x_i)(y_i-\frac{1}{n}\sum_{i=1}^n y_i)}{\sqrt{\sum_{i=1}^n (x_i-\frac{1}{n}\sum_{i=1}^n x_i)^2}\sqrt{\sum_{i=1}^n (y_i-\frac{1}{n}\sum_{i=1}^n y_i)^2}}
AdjustedCosineSimilarity(X,Y)=∑i=1n(xi−n1∑i=1nxi)2∑i=1n(yi−n1∑i=1nyi)2∑i=1n(xi−n1∑i=1nxi)(yi−n1∑i=1nyi)
2.2 Jaccard Similarity
杰卡德系数,英文叫做 Jaccard index, 又称为 Jaccard similarity,用于比较有限样本集之间的相似性与差异性。
Jaccard 系数值越大,样本相似度越高。
计算方法:两个样本的交集除以并集得到的数值,当两个样本完全一致时,结果为 1,当两个样本完全不同时,结果为 0。
计算结果范围:
[
0
,
1
]
[0,1]
[0,1]。
J
a
c
c
a
r
d
S
i
m
i
l
a
r
i
t
y
(
X
,
Y
)
=
X
∩
Y
X
∪
Y
JaccardSimilarity(X,Y)=\frac{X\cap Y}{X\cup Y}
JaccardSimilarity(X,Y)=X∪YX∩Y
与杰卡德相似系数相反的概念是杰卡德距离(Jaccard Distance),可以用如下公式来表示:
J
a
c
c
a
r
d
D
i
s
t
a
n
c
e
(
X
,
Y
)
=
1
−
X
∩
Y
X
∪
Y
JaccardDistance(X,Y)=1-\frac{X\cap Y}{X\cup Y}
JaccardDistance(X,Y)=1−X∪YX∩Y
杰卡德距离用两个两个集合中不同元素占所有元素的比例来衡量两个集合的区分度。
2.3 Pearson Correlation
皮尔逊相关系数(Pearson Correlation)定义为两个变量之间的协方差和标准差的商。实际上也是一种余弦相似度,不过先对向量做了中心化,两向量各自减去均值后,再计算余弦相似度。当两个向量均值都为0时,皮尔逊相对系数等于余弦相似性。
计算结果范围: [ − 1 , 1 ] [-1,1] [−1,1],-1 表示负相关,1 比表示正相关。
计算方法:
P
e
a
r
s
o
n
C
o
r
r
e
l
a
t
i
o
n
(
X
,
Y
)
=
c
o
v
(
X
,
Y
)
σ
X
σ
Y
=
∑
i
=
1
n
(
X
i
−
X
ˉ
)
(
Y
i
−
Y
ˉ
)
∑
i
=
1
n
(
X
i
−
X
ˉ
)
2
∑
i
=
1
n
(
Y
i
−
Y
ˉ
)
2
Pearson Correlation(X, Y)=\frac{cov(X,Y)}{\sigma_X\sigma_Y}=\frac{\sum_{i=1}^n(X_i-\bar{X})(Y_i-\bar{Y})}{\sqrt{\sum_{i=1}^n(X_i-\bar{X})^2}\sqrt{\sum_{i=1}^n(Y_i-\bar{Y})^2}}
PearsonCorrelation(X,Y)=σXσYcov(X,Y)=∑i=1n(Xi−Xˉ)2∑i=1n(Yi−Yˉ)2∑i=1n(Xi−Xˉ)(Yi−Yˉ)
2.4 Euclidean Distance
明氏距离(Minkowski Distance)的推广:
p
=
1
p=1
p=1为曼哈顿距离,
p
=
2
p=2
p=2为欧氏距离,切比雪夫距离是明氏距离取极限的形式。
M
i
n
k
o
w
s
k
i
D
i
s
t
a
n
c
e
=
(
∑
i
=
1
n
∣
x
i
−
y
i
∣
p
)
1
/
p
M
a
n
h
a
t
t
a
n
D
i
s
t
a
n
c
e
=
∑
i
=
1
n
∣
x
i
−
y
i
∣
E
u
c
l
i
d
e
a
n
D
i
s
t
a
n
c
e
=
∑
i
=
1
n
(
x
i
−
y
i
)
2
C
h
e
b
y
s
h
e
v
D
i
s
t
a
n
c
e
=
lim
p
→
∞
(
∑
i
=
1
n
∣
x
i
−
y
i
∣
p
)
1
/
p
=
max
∣
x
i
−
y
i
∣
Minkowski Distance=(\sum_{i=1}^n |x_i-y_i|^p)^{1/p}\\ Manhattan Distance=\sum_{i=1}^n |x_i-y_i|\\ Euclidean Distance=\sqrt{\sum_{i=1}^n (x_i-y_i)^2}\\ Chebyshev Distance=\lim_{p \to \infty}(\sum_{i=1}^n |x_i-y_i|^p)^{1/p}=\max |x_i-y_i|
MinkowskiDistance=(i=1∑n∣xi−yi∣p)1/pManhattanDistance=i=1∑n∣xi−yi∣EuclideanDistance=i=1∑n(xi−yi)2ChebyshevDistance=p→∞lim(i=1∑n∣xi−yi∣p)1/p=max∣xi−yi∣
如果两个点特征值不在一个数量级时,大的特征值会覆盖掉小的。如Y1(10000,1),Y2(20000,2)。
标准欧氏距离的思路:将各个维度的数据进行标准化:标准化后的值 = ( 标准化前的值 - 分量的均值 ) /分量的标准差,然后计算欧式距离。
S
t
a
n
d
a
r
d
E
u
c
l
i
d
e
a
n
D
i
s
t
a
n
c
e
=
∑
i
=
1
n
(
x
i
−
y
i
s
i
)
2
Standard Euclidean Distance=\sqrt{\sum_{i=1}^n (\frac{x_i-y_i}{s_i})^2}
StandardEuclideanDistance=i=1∑n(sixi−yi)2
3. 深度匹配
参考
欢迎各位关注我的个人公众号:HsuDan,我将分享更多自己的学习心得、避坑总结、面试经验、AI最新技术资讯。
