文本相似度-bm25算法原理及实现

文本相似度-bm25算法原理及实现

原理

BM25算法:

用途:搜索相关性分数的计算;

算法描述:

  1. 对Query进行语素解析,生成语素 q i q_i qi
  2. 然后,对于每个搜索结果D,计算每个语素 q i q_i qi与D的相关性得分,
  3. 最后,将qi相对于D的相关性得分进行加权求和,从而得到Query与D的相关性得分。

BM25算法的一般性公式如下:

S c o r e ( Q , d ) = ∑ 1 n W i R ( q i , d ) Score(Q, d) = \sum_{1}^{n}W_iR(q_i, d) Score(Q,d)=1nWiR(qi,d)

名词解释:

  • Q表示Query;
  • q i q_i qi表示Q解析之后的一个语素(对中文而言,我们可以把对Query的分词作为语素分析,每个词看成语素 q i q_i qi);
  • d表示一个搜索结果文档;
  • W i W_i Wi表示语素 q i q_i qi的权重; R ( q i , d ) R(q_i,d) R(qid)表示语素 q i q_i qi与文档d的相关性得分;

下面我们来看如何定义Wi。

​ 判断一个词与一个文档的相关性的权重,方法有多种,较常用的是IDF。

我们再来看语素qi与文档d的相关性得分R(qi,d)。

首先来看BM25中相关性得分的一般形式:

  • k1,k2,b为调节因子,通常根据经验设置,一般k1=2,b=0.75;

  • fi为qi在d中的出现频率

  • qfi为qi在Query中的出现频率。

  • dl为文档d的长度

  • avgdl为所有文档的平均长度。由于绝大部分情况下,qi在Query中只会出现一次,即qfi=1,因此公式可以简化为:

从K的定义中可以看到,参数b的作用是调整文档长度对相关性影响的大小。b越大,文档长度的对相关性得分的影响越大,反之越小。而文档的相对长度越长,K值将越大,则相关性得分会越小。这可以理解为,当文档较长时,包含qi的机会越大,因此,同等fi的情况下,长文档与qi的相关性应该比短文档与qi的相关性弱。
综上,BM25算法的相关性得分公式可总结为:

从BM25的公式可以看到,通过使用不同的语素分析方法、语素权重判定方法,以及语素与文档的相关性判定方法,我们可以衍生出不同的搜索相关性得分计算方法,这就为我们设计算法提供了较大的灵活性。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
BM25算法是一种用于评估搜索词和文档之间相关性的算法,它是一种基于概率检索模型提出算法。其实现原理如下: 1. 对查询进行分词,得到单词 $q_i$。 2. 对于每个文档 $D$,计算BM25分数,该分数由3部分组成: a. query中每个单词和文档D之的相关性 b. 单词和query之间的相关性 c. 每个单词的权重 3. 计算每个单词的权重,使用公式 $w_i = \frac{(k_1 + 1) * f_i}{k_1 * ((1 - b) + b * \frac{L_D}{L_{ave}}) + f_i}$,其中 $f_i$ 是单词在文档中出现的频率,$L_D$ 是文档的长度,$L_{ave}$ 是所有文档的平均长度,$k_1$ 和 $b$ 是调节参数。 4. 计算每个单词和查询之间的相关性,使用公式 $IDF_i = \log{\frac{N - n_i + 0.5}{n_i + 0.5}}$,其中 $N$ 是文档总数,$n_i$ 是包含单词 $i$ 的文档数。 5. 计算每个单词和文档之间的相关性,使用公式 $score(D, Q) = \sum_{i=1}^{n} IDF_i * \frac{(k_1 + 1) * f_i}{k_1 * ((1 - b) + b * \frac{L_D}{L_{ave}}) + f_i}$,其中 $n$ 是查询中单词的数量。 6. 对于每个文档,按照相关性分数进行排序,返回排名前 $k$ 的文档。 ```python # 以下是一个使用Python实现BM25算法的示例 import numpy as np class BM25_Model(object): def __init__(self, k1=1.5, b=0.75): self.k1 = k1 self.b = b def fit(self, docs): self.N = len(docs) self.avgdl = sum([len(doc) for doc in docs]) / self.N self.docs = docs self.f = [] self.df = {} self.idf = {} self.doc_len = [] for doc in docs: tmp = {} self.doc_len.append(len(doc)) for word in doc: if word not in tmp: tmp[word] = 0 tmp[word] += 1 self.f.append(tmp) for k in tmp.keys(): if k not in self.df: self.df[k] = 0 self.df[k] += 1 for k, v in self.df.items(): self.idf[k] = np.log((self.N - v + 0.5) / (v + 0.5)) def get_score(self, query): score = np.zeros(self.N) for q in query: if q not in self.f[0]: continue idf = self.idf[q] for i in range(self.N): f = self.f[i].get(q, 0) score[i] += idf * (f * (self.k1 + 1) / (f + self.k1 * (1 - self.b + self.b * self.doc_len[i] / self.avgdl))) return score # 示例 docs = [['hello', 'world'], ['hello', 'python'], ['python', 'world']] bm25 = BM25_Model() bm25.fit(docs) query = ['hello'] score = bm25.get_score(query) print(score) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值