信息检索——BM25算法实现(自己写)

代码套公式的时候,qi默认的是查询项。但是,在网上的一些代码中,计算结果有点不太一样呀。。。。

import math

import jieba
import numpy as np
sents = []
sents.append("自然语言自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。")
sents.append("它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。")
sents.append("自然语言处理是一门融语言学、计算机科学、数学于一体的科学。")
sents.append("因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,")
sents.append("所以它与语言学的研究有着密切的联系,但又有重要的区别。")
sents.append("自然语言处理并不是一般地研究自然语言,")
sents.append("而在于研制能有效地实现自然语言通信的计算机系统,")
sents.append("特别是其中的软件系统。因而它是计算机科学的一部分。")

query_list = ['自然语言', '计算机科学', '人工智能', '领域']   # 分词之后的list
class BM25:
    def __init__(self):
        self.idf={}
        self.f={}
        self.d=[]
        self.k1=1.5
        self.b= 0.75
    def tokenier(self,sents):
        tokens=[list(jieba.cut(s)) for s in sents]
        sdl=[len(i) for i in sents]
        aver=np.mean(sdl)
        self.d=[dl/aver for dl in sdl]
        return tokens
    def idf_cal(self):
        #计算文档中包含了query的数目(n(qi))
        tokens=self.tokenier(sents)
        query_n={}#n(qi)
        #计算query在文档d中出现的频率——self.f
        for query in query_list:
            query_n[query]=0
            self.f[query]={}
            for i,wlist in enumerate(tokens):
                self.f[query][i]=0
                if query in wlist:
                    query_n[query]+=1
                    self.f[query][i]=wlist.count(query)
        #计算IDF分数
        N=len(sents)
        for query in query_list:
            self.idf[query]=math.log(N-query_n[query]+0.5)-math.log(query_n[query]+0.5)
        return self.idf,self.f
    def retrival(self):
        self.idf_cal()
        score=[]
        for i,sent in enumerate(sents):
            s=[]
            for q in query_list:
                v1=self.idf[q]
                v2=self.f[q][i]
                v3=self.d[i]
                s.append(v1*(v2*(self.k1+1)/(v2+self.k1*(1-self.b+self.b*v3))))
            score.append(np.sum(s))

            '''s=[self.idf[q]*((self.f[q][i](self.k1+1))/(self.f[q][i]+self.k1*(1-self.b+self.b*self.d[i]))) for q in query_list]
            score.append(np.sum(s))'''
        print(score)
        print(self.d)
        print(self.f)
        print(self.idf)

BM25().retrival()

结果

Building prefix dict from D:\Anocada\lib\site-packages\jieba\dict.txt ...
Loading model from cache C:\Users\ASUS\AppData\Local\Temp\jieba.cache
Loading model cost 0.6411159038543701 seconds.
Prefix dict has been built succesfully.
[1.8632418568569213, -0.876616004612327, -0.49146313523763707, 0.0, 0.0, -1.5155913331365245, -1.013560838505477, 0.47126411006385116]
[1.2363636363636363, 1.2, 1.0545454545454545, 1.0545454545454545, 0.9818181818181818, 0.6909090909090909, 0.8727272727272727, 0.9090909090909091]
{'自然语言': {0: 2, 1: 1, 2: 1, 3: 1, 4: 0, 5: 2, 6: 1, 7: 0}, '计算机科学': {0: 1, 1: 0, 2: 1, 3: 0, 4: 0, 5: 0, 6: 0, 7: 1}, '人工智能': {0: 1, 1: 0, 2: 0, 3: 0, 4: 0, 5: 0, 6: 0, 7: 0}, '领域': {0: 2, 1: 0, 2: 0, 3: 1, 4: 0, 5: 0, 6: 0, 7: 0}}
{'自然语言': -0.9555114450274362, '计算机科学': 0.4519851237430572, '人工智能': 1.6094379124341003, '领域': 0.9555114450274362}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
BM25算法是一种用于评估搜索词和文档之间相关性的算法,它是一种基于概率检索模型提出算法。其实现原理如下: 1. 对查询进行分词,得到单词 $q_i$。 2. 对于每个文档 $D$,计算BM25分数,该分数由3部分组成: a. query中每个单词和文档D之的相关性 b. 单词和query之间的相关性 c. 每个单词的权重 3. 计算每个单词的权重,使用公式 $w_i = \frac{(k_1 + 1) * f_i}{k_1 * ((1 - b) + b * \frac{L_D}{L_{ave}}) + f_i}$,其中 $f_i$ 是单词在文档中出现的频率,$L_D$ 是文档的长度,$L_{ave}$ 是所有文档的平均长度,$k_1$ 和 $b$ 是调节参数。 4. 计算每个单词和查询之间的相关性,使用公式 $IDF_i = \log{\frac{N - n_i + 0.5}{n_i + 0.5}}$,其中 $N$ 是文档总数,$n_i$ 是包含单词 $i$ 的文档数。 5. 计算每个单词和文档之间的相关性,使用公式 $score(D, Q) = \sum_{i=1}^{n} IDF_i * \frac{(k_1 + 1) * f_i}{k_1 * ((1 - b) + b * \frac{L_D}{L_{ave}}) + f_i}$,其中 $n$ 是查询中单词的数量。 6. 对于每个文档,按照相关性分数进行排序,返回排名前 $k$ 的文档。 ```python # 以下是一个使用Python实现BM25算法的示例 import numpy as np class BM25_Model(object): def __init__(self, k1=1.5, b=0.75): self.k1 = k1 self.b = b def fit(self, docs): self.N = len(docs) self.avgdl = sum([len(doc) for doc in docs]) / self.N self.docs = docs self.f = [] self.df = {} self.idf = {} self.doc_len = [] for doc in docs: tmp = {} self.doc_len.append(len(doc)) for word in doc: if word not in tmp: tmp[word] = 0 tmp[word] += 1 self.f.append(tmp) for k in tmp.keys(): if k not in self.df: self.df[k] = 0 self.df[k] += 1 for k, v in self.df.items(): self.idf[k] = np.log((self.N - v + 0.5) / (v + 0.5)) def get_score(self, query): score = np.zeros(self.N) for q in query: if q not in self.f[0]: continue idf = self.idf[q] for i in range(self.N): f = self.f[i].get(q, 0) score[i] += idf * (f * (self.k1 + 1) / (f + self.k1 * (1 - self.b + self.b * self.doc_len[i] / self.avgdl))) return score # 示例 docs = [['hello', 'world'], ['hello', 'python'], ['python', 'world']] bm25 = BM25_Model() bm25.fit(docs) query = ['hello'] score = bm25.get_score(query) print(score) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值