和我一起构建搜索引擎(四)检索模型

和我一起构建搜索引擎(四)检索模型

构建好倒排索引之后,就可以开始检索了。

检索模型有很多,比如向量空间模型、概率模型、语言模型等。其中最有名的、检索效果最好的是基于概率的BM25模型。

给定一个查询Q和一篇文档d,d对Q的BM25得分公式为
在这里插入图片描述
在这里插入图片描述

BM25_{score}(Q,d)=\sum_{t\in Q}w(t,d)
w(t,d)=\frac{qtf}{k_3+qtf}\times \frac{k_1\times tf}{tf+k_1(1-b+b\times l_d/avg\_l)}\times log_2\frac{N-df+0.5}{df+0.5}

公式中变量含义如下:

:查询中的词频
:文档中的词频
:文档长度
:平均文档长度
:文档数量
:文档频率
:可调参数
这个公式看起来很复杂,我们把它分解一下,其实很容易理解。第一个公式是外部公式,一个查询Q可能包含多个词项,比如“苹果手机”就包含“苹果”和“手机”两个词项,我们需要分别计算“苹果”和“手机”对某个文档d的贡献分数w(t,d),然后将他们加起来就是整个文档d相对于查询Q的得分。

第二个公式就是计算某个词项t在文档d中的得分,它包括三个部分。第一个部分是词项t在查询Q中的得分,比如查询“中国人说中国话”中“中国”出现了两次,此时qtf=2,说明这个查询希望找到的文档和“中国”更相关,“中国”的权重应该更大,但是通常情况下,查询Q都很短,而且不太可能包含相同的词项,所以这个因子是一个常数,我们在实现的时候可以忽略。

第二部分类似于TFIDF模型中的TF项。也就是说某个词项t在文档d中出现次数越多,则t越重要,但是文档长度越长,tf也倾向于变大,所以使用文档长度除以平均长度
起到某种归一化的效果,

是可调参数。

第三部分类似于TFIDF模型中的IDF项。也就是说虽然“的”、“地”、“得”等停用词在某文档d中出现的次数很多,但是他们在很多文档中都出现过,所以这些词对d的贡献分并不高,接近于0;反而那些很稀有的词如”糖尿病“能够很好的区分不同文档,这些词对文档的贡献分应该较高。

所以根据BM25公式,我们可以很快计算出不同文档t对查询Q的得分情况,然后按得分高低排序给出结果。

下面是给定一个查询句子sentence,根据BM25公式给出文档排名的函数

def result_by_BM25(self, sentence):
    seg_list = jieba.lcut(sentence, cut_all=False)
    n, cleaned_dict = self.clean_list(seg_list)
    BM25_scores = {}
    for term in cleaned_dict.keys():
        r = self.fetch_from_db(term)
        if r is None:
            continue
        df = r[1]
        w = math.log2((self.N - df + 0.5) / (df + 0.5))
        docs = r[2].split('\n')
        for doc in docs:
            docid, date_time, tf, ld = doc.split('\t')
            docid = int(docid)
            tf = int(tf)
            ld = int(ld)
            s = (self.K1 * tf * w) / (tf + self.K1 * (1 - self.B + self.B * ld / self.AVG_L))
            if docid in BM25_scores:
                BM25_scores[docid] = BM25_scores[docid] + s
            else:
                BM25_scores[docid] = s
    BM25_scores = sorted(BM25_scores.items(), key = operator.itemgetter(1))
    BM25_scores.reverse()
    if len(BM25_scores) == 0:
        return 0, []
    else:
        return 1, BM25_scores

在这里插入图片描述

首先将句子分词得到所有查询词项,然后从数据库中取出词项对应的倒排记录表,对记录表中的所有文档,计算其BM25得分,最后按得分高低排序作为查询结果。

类似的,我们还可以对所有文档按时间先后顺序排序,越新鲜的新闻排名越高;还可以按新闻的热度排序,越热门的新闻排名越高。

关于热度公式,我们认为一方面要兼顾相关度,另一方面也要考虑时间因素,所以是BM25打分和时间打分的一个综合。

比较有名的热度公式有两个,一个是Hacker News的,另一个是Reddit的,他们的公式分别为:

图1. hacker news ranking algorithm [1]
图1. hacker news ranking algorithm [1]
图2. reddit ranking algorithm [2]
图2. reddit ranking algorithm [2]
可以看出,他们都是将新闻/评论的一个原始得分和时间组合起来,只是一个用除法,一个用加法。所以我们也依葫芦画瓢,”自创“了一个简单的热度公式:在这里插入图片描述

hot_{score}=k_1log(BM25_{score})+\frac{k_2}{t_{now}-t_{news}}
用BM25得分加上新闻时间和当前时间的差值的倒数,

也是可调参数。

按时间排序和按热度排序的函数和按BM25打分排序的函数类似,这里就不贴出来了,详细情况可以看我的Github项目News_IR_Demo。

至此,搜索引擎的搜索功能已经实现了,你可以试着修改./web/search_engine.py的第167行的关键词,看看搜索结果是否和你预想的排序是一样的。不过由于我们的数据量只有1000个新闻,并不能涵盖所有关键词,更多的测试可以留给大家线下完成。

[1]. http://amix.dk/blog/post/19574

[2]. http://amix.dk/blog/post/19588

完整可运行的新闻搜索引擎Demo请看我的Github项目news_search_engine。

文章引用
https://bitjoy.net/2016/01/07/introduction-to-building-a-search-engine-3/

搜索引擎原理

微博关键词搜索结果

爬取百度结果的爬虫

搜索微信搜狗的引擎

  • 14
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值