Elasticsearch中的相似度评分机制

原文链接:https://cloud.tencent.com/developer/news/762466

本文要点:

  • 相关性得分是一个搜索引擎的核心,了解它的工作原理对创建一个好的搜索引擎至关重要。
  • Elasticsearch使用了两种相似度评分函数:5.0版本之前的TF-IDF以及5.0版本之后的Okapi BM25。
  • TF-IDF通过衡量一个单词在局部的常见性以及在全局的罕见程度来确定查询的相关性。
  • Okapi BM25是基于tf-idf的,解决了TF-IDF的缺陷,使函数结果与用户的查询更相关。
  • 我们可以使用Elasticsearch提供的_explain API来调试相似度评分函数的计算。

排序通常是通过计算语料库中的文档和用户查询之间的相关性或相似度评分来进行。相关性得分是一个搜索引擎的核心。

理解如何计算相关性得分是创建一个好的搜索引擎所必须采取的第一步。

使用Elasticsearch,我们可以开箱即用地计算相关性得分。 Elasticsearch 带有一个内置的相关性评分计算模块,称为相似度模块。

直到 Elasticsearch 5.0.0 版本为止,相似度模块一直使用TF-IDF作为它的默认相似度函数。

后继版本使用BM25(它是TF-IDF的变更版本)作为默认的相似度函数。

在本文中,我们将探讨TF-IDFBM25这两个函数,以及相似度评分在 Elasticsearch 中的工作原理。

  • TF-IDF函数的公式如下图:

TF-IDF公式

tf-idf 代表的是Term Frequency-Inverse Document Frequency。它是文本分析和自然语言处理中常用于计算单词之间相似度的函数。 TF-IDF 通过将词频(Term Frequency)反向文档频率(Inverse Document Frequency)相乘来工作。前者词频,是给定单词在文档中出现的次数。后者逆向文档频率,是对单词在语料库中的罕见程度进行评分的一种计算。单词越罕见,其得分就越高。

当我们要寻找与某个单词相关的文档时,我们希望这个单词是:

  1. 局部常见:该单词在文档中多次出现
  2. 全局罕见:该单词在语料库中出现的次数并不多。

如果文档中具有某个在局部常见但在全局罕见的单词,那么该文档就是与给定单词相关的文档。使用TF-IDF,在计算哪些是最相关的时候,我们可以同时考虑文档的局部常见因素和全局罕见因素。

词频

词频(Term Frequency)是一种考虑了局部常用词的计算。它的价值是显而易见的。 你可以通过计算这个单词在语料库文档中分别出现的次数来得到它。

因此,我们可以使用词频来计算文档与单词的相关性,但仅凭这一项是不够的。 我们仍然会遇到如下问题:

  1. 文档长度:如果我们在公式中只使用词频,那么文档越长将会被认为越相关。 假设我们有一个包含了 1000 个单词的文档,而另一个文档则只有 10 个单词,那么可以理解的是,我们查询的单词在包含了 1000 个单词的文档中出现的频率更高的几率自然要高得多。
  2. 常用词:如果我们只使用词频,并且查询“a”、“the”、“of”、“et”等常用词,那么最相关的文档将是包含了最多常用词的文档。 比如,我们有“The blue keyboard”和“The painting of the farmers and the plants”两个文档。 如果我们要查询“the keyboard”,则第二个文档似乎比第一个更相关,尽管从人类的角度看,我们知道这不是真的。

由于存在这些问题,所以不建议只使用词频来计算相似度评分。 幸运的是,通过引入逆向文档频率,我们可以避免上述两个问题。

逆向文档频率

逆向文档频率是一种将全局罕见词考虑在内的计算函数,某个单词在整个语料库中越罕见,那么它就越重要。

我们来看下逆向文档频率的公式:

我们可以看到N是我们语料库中的文档数,而df是包含某个单词的文档数。

让我们用一个极端的例子来说明这一点。 假设我们的语料库中有 100 个文档,每个文档中都包含单词“a”。 如果要查询单词“a”会发生什么呢?

正是我们想要的!当某个单词在全局范围内并不罕见(它存在于每个文档中)时,得分将会降为 0。

现在我们来看另一个例子。 像之前一样,我们的语料库中有 100 个文档。 但是现在,只有一个文档中包含了单词“a”。

可以看到,某个单词在语料库中越罕见,其计算评分就越高。

如果我们要查询一个以上的单词,那么逆向文档频率就非常重要了。 假设我们要查询包含两个单词“a”和“keyboard”的“a keyboard”。 我们可以认为“ a”在全局范围内并不罕见,而“keyboard”却很罕见。 如果我们只使用词频,那么包含更多“a”的文档将会显示成最相关的。 但我们知道这是错的,因为包含了 1 个“keyboard”的文档应该比包含了 10 个“ a”且没有包含“keyboard”的文档更相关。

TF-IDF计算示例

既然我们已经理解了什么是词率和逆向文档频率,以及它们为什么会如此重要,那么让我们来看一些示例吧。

假设语料库中有五个文档,每个文档中都包含了一个产品名称:

  • “Blue Mouse”
  • “Painting of a Blue Mountain with a Blue Sky”
  • “Blue Smartphone”
  • “Red Keyboard”
  • “Black Smartphone”

对于语料库中的这些文档,如果我们使用TF-IDF在语料库中查询“Blue”,哪个文档是最相关的呢?

我们需要计算单词“Blue”到每个文档的距离。让我们从第一个文档“Blue Mouse”开始。

还记得我们之前学过的公式吗?

根据这个计算,我们可以看到“Blue”和“Blue Mouse”之间的距离是 0.51。那其他文档呢?

以下是我们列出的所有文档的计算结果:

  • “Blue Mouse” = 0.51
  • “Painting of a Blue Mountain with a Blue sky” = 1.02
  • “Blue smartphone” = 0.51
  • “Red Keyboard” = 0
  • “Black Keyboard” = 0

正如预期的那样,单词“Blue”出现次数最多的文档被计算为最相关的文档。但是如果我们在查询中再加入“Mouse”这个单词呢?

使用“Blue Mouse”作为查询,我们需要首先要将其拆分为单词“Blue”和“Mouse”,然后计算它们到每个文档的距离。

其结果为:

  • “Blue Mouse” = 0.51 + 1.61 = 2.12
  • “Painting of a Blue Mountain with a Blue sky” = 1.02 + 0 = 1.02
  • “Blue smartphone” = 0.51 + 0 = 0.51
  • “Red Keyboard” = 0
  • “Black Keyboard” = 0

正如我们所看到的那样,“Blue Mouse”文档已经成了最相关的文档了,这正是我们所期望的。

TF-IDF的缺陷

tf-idf 就像变魔术一样,它可以按照我们想要的方式计算出最相关的文档!那么,为什么 Elasticsearch 和其他搜索引擎使用的是BM25而不是它呢?

Elasticsearch 在 5.0 版本之前其实一直都是使用TF-IDF来计算相似度评分的,但由于下面的这些缺陷,它后来转而使用BM25了:

  • 它并没有考虑文档的长度:假设我们有一个包含 1000 个单词的文档,其中单词“soccer”出现 1 次和单词“soccer”出现 10 次。你认为哪次的文档与单词“soccer”更相关?应该是单词出现 10 次时,因为与 1000 个单词中只出现一次相比,出现 10 次时文档与“soccer”相关的可能性更大。
  • 词频并不饱和:我们从上一节知道,IDF 将惩罚常用词。但是,如果有些文档本身就有这么多常用词呢?词频的值将会很大。由于 TF-IDF 函数的词频不饱和,会对含有大量常用词的不相关文档进行增强。

由于这些缺点,人们会认为BM25是最先进的相似度函数。

Okapi BM25

Okapi BM25是一个更适合现代用例的相似度评分函数。与TF-IDF一样,我们可以通过将TFIDF相乘来获得Okapi BM25函数的结果。只是,在Okapi BM25中,TFIDF公式本身是有不同的。

让我们来看下公式:

与 TF-IDF 相比,Okapi BM25的公式似乎有点吓人。对于公式和计算,我们就不作详细介绍了。

为什么Okapi BM25在相似度评分上优于TF-IDF

我们知道TF-IDF的缺陷使得它不太适合用于现代的搜索评分函数。那么,Okapi BM25是如何克服这些问题的呢?

TF-IDF的第一个缺陷是它没有考虑文档的长度。在这个公式的分母中,我们可以看到fieldLen/avgFieldLen。这意味着,如果文档的字段长度大于文档的平均长度,该函数将会对文档的得分进行惩罚。我们可以通过更改参数b来控制该函数对较长文档的惩罚程度。如果我们将b设置成一个较大的值,那么该函数将对较长文档的得分进行更多的惩罚。

第二个缺陷是“词频不饱和”。从上一节我们知道,TF-IDF中的词率会增强包含很多常见词的文档。在Okapi BM25函数中,参数k1将确定词频的饱和程度。k1的值越小,词频越饱和。我们可以看到词频的可视化如下图所示:

Okapi BM25 计算示例

现在我们已经知道了Okapi BM25的工作原理,那我们来尝试一下。对于这些示例,我们将使用 Elasticsearch 中默认的k1b

  • k1= 1.2
  • b= 0.75

我们使用TF-IDF示例中使用过的相同文档,并查询“Blue”。

  • “Blue Mouse” = 0.29
  • “Painting of a Blue Mountain with a Blue sky” = 0.23
  • “Blue Smartphone” = 0.29
  • “Red Keyboard” = 0
  • “Black Keyboard” = 0

正如我们看到的那样,结果与TF-IDF函数的相比有所不同。之前得分最高的“Painting of a Blue Mountain with a Blue sky”,现在比“Blue Mouse”和“Blue Smartphone”要低。这是因为我们现在考虑了文章的长度,且更喜欢较短的文章。我们也使词频变得饱和了。但是由于单词重复而产生的得分并没有 TF-IDF 函数的大,在这个例子中,这并没有真正显示出来。

所以,让我们使用b=0 来再试下。我们会得到什么呢?

  • “Blue Mouse” = 0.24
  • “Painting of a Blue Mountain With a Blue Sky” = 0.34
  • “Blue Smartphone” = 0.24
  • “Red Keyboard” = 0
  • “Black Keyboard” = 0

由于我们将参数b降为 0,所以该函数不再考虑文章的长度。 因此,文档“Painting of a Blue Mountain With a Blue Sky”成为得分最高的文档了。

现在,让我们试着把k1降为 0,看看会发生什么:

  • “Blue Mouse” = 0.24
  • “Painting of a Blue Mountain With a Blue Sky” = 0.24
  • “Blue Smartphone” = 0.24
  • “Red Keyboard” = 0
  • “Black Keyboard” = 0

所有包含单词“Blue”的三个文档的得分都是相同的,因为当k1降为 0 时,词频不会影响得分。如果我们试着将k1增加到一个更大的数字,该函数将会提高重复出现查询词的文档的评分。

在 Java 使用 Elasticsearch 进行文本相似度匹配通常涉及以下几个步骤: 1. **安装和配置**:首先需要安装 Elasticsearch,并将其集成到你的 Java 应用程序,比如通过 Elasticsearch Rest High-Level Client API。 2. **创建索引**:创建一个索引,其包含文档和他们的文本内容。Elasticsearch 支持多种字段类型,如 `text` 或 `keyword`,用于存储文本数据。 ```java Document doc = new Document("id", "doc_id"); doc.put("content", "这是要搜索的文本..."); client.index(indexName, typeName, doc); ``` 3. **设置分析器**:为了计算文本相似度,你需要设置合适的分析器来解析文本,例如使用 `BM25` 分析器进行查询优化。 4. **执行查询**:使用 `match`、`term` 或 `query_string` 查询来查找相似的文档。对于相似度匹配,可以使用 `Similarity` 类提供的函数,如 `MoreLikeThis` 查询,它可以根据一个文档的内容找到其他类似的内容。 ```java MultiMatchQueryBuilder multiMatchQuery = MultiMatchQueryBuilder.match("content", "search_text"); SearchResponse response = client.search(indexName, multiMatchQuery); ``` 5. **处理结果**:从响应获取得分最高的文档,然后根据需要进一步处理这些文档,比如计算余弦相似度或 Jaccard 相似度等。 6. **相似度算法**:在 Elasticsearch 内部并不直接提供相似度计算功能,一般会在查询返回的结果基础上,使用外部库(如 Apache Tika 或 NLTK)对分数进行调整和排序。 ```java float similarityScore = calculateCosineSimilarity(doc1, doc2); // 自定义相似度计算方法 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值