Elasticsearch实战 | 怎么通过Elasticsearch实现模糊查询?

Elasticsearch实战 | 怎么通过Elasticsearch实现模糊查询?

1、问题分析

首先这里所说的模糊查询是指类似mysql的like关键字左右模糊的查询过滤。
举个栗子:搜索 社保登记 ,能匹配出 我要社保登记查询 ,不能匹配出 社保缴纳登记”
然后啰嗦下Elasticsearch是一个全文检索引擎,我们通常应用它来进行文本的分词匹配过滤。也就是说通常我们不会用Elasticsearch来做这种模糊查询,这种比起全文检索属于更精准的查询。
当然,Elasticsearch也是支持模糊查询的。它有两种思路来实现,一种是使用wildcard查询,一种是使用短语查询(match_phrase,match_phrase_prefix)。然而wildcard查询官方建议是尽量避免使用,因为有性能问题。
所以我们下面描述使用短语查询的实现方式,顺便比较下match_phrase 和match_phrase_prefix的异同。

2、match_phrase

查询规则描述
目标文本包含检索短语的所有能分出的分词
目标文本和检索短语里的分词出现顺序完全一致,且中间不夹杂其他分词
举个栗子:
检索短语:电信业务经营
目标文本1:电信业务经营发生场所
目标文本2:电信业务经营者

假设目标字段为title,其定义为

"title" : {
   "type" : "text",
   "analyzer" : "ik_smart"
}

使用match_phrase进行如下查询发现能成功匹配到目标文本1(下面的语句省略了索引名),看起来已经实现了模糊查询

GET /_search
{
  "query": {"match_phrase": {
    "title": "电信经营业务"
  }}
}

但是我们会惊讶的发现它没有匹配到目标文本2,这显然不符合我们一般的预期。为什么呢?下面我们来分析下原因
使用ik_smart分词器对检索短语分词

GET _analyze
{
  "analyzer": "ik_smart",
  "text": ["电信业务经营"]
}

分词结果为:

{
  "tokens" : [
    {
      "token" : "电信业务",
      "start_offset" : 0,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "经营",
      "start_offset" : 4,
      "end_offset" : 6,
      "type" : "CN_WORD",
      "position" : 1
    }
  ]
}

接着使用ik_smart分词器分别对目标文本1和目标文本2进行分析
目标文本1分词结果:

{
  "tokens" : [
    {
      "token" : "电信业务",
      "start_offset" : 0,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "经营",
      "start_offset" : 4,
      "end_offset" : 6,
      "type" : "CN_WORD",
      "position" : 1
    },
    {
      "token" : "发生",
      "start_offset" : 6,
      "end_offset" : 8,
      "type" : "CN_WORD",
      "position" : 2
    },
    {
      "token" : "场所",
      "start_offset" : 8,
      "end_offset" : 10,
      "type" : "CN_WORD",
      "position" : 3
    }
  ]
}

目标文本2分词结果为:

{
  "tokens" : [
    {
      "token" : "电信业务",
      "start_offset" : 0,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "经营者",
      "start_offset" : 4,
      "end_offset" : 7,
      "type" : "CN_WORD",
      "position" : 1
    }
  ]
}

我们比对检索短语和目标文本的分词结果。发现目标文本1分出的词完全包含检索短语的词,且顺序一致,中间没有其他词。但文本2没有分出经营,而是有一个分词经营者,这里显然是不符合match_phrase的过滤规则,没有包含“经营“这个分词。所以目标文本2没有被匹配出来。
那是不是因为这里的分词器是ik_smart分的太粗了呢?我们试下使用ik_max_word分词看下分词结果。
检索短语ik_max_word分词结果:

{
  "tokens" : [
    {
      "token" : "电信业务",
      "start_offset" : 0,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "电信业",
      "start_offset" : 0,
      "end_offset" : 3,
      "type" : "CN_WORD",
      "position" : 1
    },
    {
      "token" : "电信",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 2
    },
    {
      "token" : "业务",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 3
    },
    {
      "token" : "经营",
      "start_offset" : 4,
      "end_offset" : 6,
      "type" : "CN_WORD",
      "position" : 4
    }
  ]
}

目标文本2的ik_max_word分词结果为:

{
  "tokens" : [
    {
      "token" : "电信业务",
      "start_offset" : 0,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "电信业",
      "start_offset" : 0,
      "end_offset" : 3,
      "type" : "CN_WORD",
      "position" : 1
    },
    {
      "token" : "电信",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 2
    },
    {
      "token" : "业务",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 3
    },
    {
      "token" : "经营者",
      "start_offset" : 4,
      "end_offset" : 7,
      "type" : "CN_WORD",
      "position" : 4
    },
    {
      "token" : "经营",
      "start_offset" : 4,
      "end_offset" : 6,
      "type" : "CN_WORD",
      "position" : 5
    }
  ]
}

如上所见,这下目标文本2分出的词已经完成包含检索短语分出的词了。但是查询结果仍然是匹配不到的,问题出在中间夹杂了其他词。

我们再近距离对比下:
电信业务营业:电信业务 电信业 电信 业务 经营
电信业务营业者:电信业务 电信业 电信 业务 经营者 经营

是的,业务和经营中间出现了一个“经营者”。这还是不符合match_phrase的过滤规则。那如果我们就是想要匹配到目标文本2应该怎么办呢?那就可以试试使用match_phrase_prefix

3、match_phrase_prefix

直观来看,match_phrase_prefix多了个prefix。这个prefix是指可以用最后一个分词作为前缀去匹配,其他的规则和match_phrase一样。还是用上面的例子,检索短语“电信业务营业”使用ik_smart分词的最后一个分词是"营业"。对最后一个分词作为前缀匹配,那就是形如“经营*”的匹配方式,那其实就能匹配到目标文本2中多出来的那个“经营者”。
可以使用如下查询验证(下面的语句省略了索引名):

GET /_search
{
  "query": {
  "match_phrase_prefix": {
    "title": {
      "query": "电信业务营业",
      "max_expansions": 50
    }
  }}
}

max_expansions是指能模糊匹配的位数,数值设置的越大能模糊匹配到的位数越大。官方建议是50。到这里,我们就已经实现了模糊匹配了。

4、小结

要实现类似mysql的like查询,可以使用match_phrase_prefix实现。
match_phrase相较match_phrase_prefix更严格,可能出现有些我们人眼看觉得应该匹配的匹配不到。

  • 4
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,Elasticsearch 中的模糊查询可以通过使用模糊查询(Fuzzy Query)和通配符查询(Wildcard Query)来实现。 1. 模糊查询(Fuzzy Query):模糊查询是指在搜索时根据查询条件中的一个词来匹配文档中的一个或多个词,而不是完全匹配该查询条件。模糊查询可以通过使用 “fuzzy” 查询来实现,例如: ``` GET /my_index/_search { "query": { "fuzzy": { "title": { "value": "quick" } } } } ``` 在上面的查询中,会匹配包含 “quick” 以及类似于 “quack”、“quicker”、“quickest” 等单词的文档。 2. 通配符查询(Wildcard Query):通配符查询是指在搜索时使用通配符来匹配文档中的一个或多个词。通配符查询可以通过使用 “wildcard” 查询来实现,例如: ``` GET /my_index/_search { "query": { "wildcard": { "title": { "value": "qu*" } } } } ``` 在上面的查询中,会匹配包含以 “qu” 开头的单词的文档,如 “quick”、“quality”、“question” 等。 需要注意的是,使用模糊查询和通配符查询会影响搜索性能,因此在使用时需要谨慎。同时,Elasticsearch 中还有其他类型的查询,可以根据具体情况选择使用。 ### 回答2: ElasticSearch是一个开源的搜索引擎,拥有强大的全文搜索和分析能力。在ElasticSearch中,模糊查询是一种常见的查询类型,用于找到与指定的搜索词或短语相似或相关的文档。 在ElasticSearch中,模糊查询可以通过使用通配符、模糊匹配、近似匹配和相似度匹配等方式实现。通配符查询可以使用通配符符号(*或?)匹配多个字符或单个字符。模糊匹配则使用模糊符号(~)指示查询应该接受的编辑距离,从而找到与搜索词相似但不完全匹配的文档。 另外,近似匹配允许搜索在单词之间添加或删除字符,以便更好地匹配查询词。相似度匹配则是利用TF-IDF算法计算词项的相对权重,从而找到与搜索词相似度最高的文档。 为了进行模糊查询,需要使用ElasticSearch提供的查询DSL语句。在查询语句中,可以使用模糊查询子句(fuzzy)指定需要进行模糊查询的字段和搜索词,以及匹配的模糊程度等参数。 不过需要注意的是,模糊查询可能会导致查询时间延长和性能下降,特别是在大数据集下。因此,在使用模糊查询时,需要权衡查询的结果精确性和查询性能之间的平衡。 总而言之,ElasticSearch模糊查询提供了灵活的搜索功能,可以帮助用户找到与搜索词相似或相关的文档。但在使用模糊查询时,需要根据具体情况选择合适的查询方式,并注意查询性能的优化。 ### 回答3: Elasticsearch是一个开源的搜索引擎,它提供了丰富的查询功能,包括模糊查询模糊查询是一种在搜索过程中允许存在一定的匹配误差的查询方式。 在Elasticsearch中,我们可以使用模糊查询来处理那些可能存在拼写错误或者其他差异的搜索请求。使用模糊查询可以找到与搜索关键词相似的文档,即使这些文档可能与搜索关键词不完全匹配。 Elasticsearch提供了多种方式来实现模糊查询。其中一种方式是使用模糊匹配查询(fuzzy match query)。通过指定一个最大编辑距离(max_edit_distance),我们可以控制模糊查询的容忍度。编辑距离指的是将一个词语转换成另一个词语所需要的最少操作次数(插入、删除、替换)。 另一种实现模糊查询的方式是使用通配符查询(wildcard query)。通配符查询支持在搜索关键词中使用通配符符号(*或?),表示匹配任意字符(*)或者匹配单个字符(?)。 另外,通过使用编辑距离相似度(edit distance similarity)计算,Elasticsearch还可以为搜索结果打分。这意味着匹配度较高的文档将排在搜索结果列表的前面。 综上所述,Elasticsearch模糊查询功能可以帮助我们处理那些可能存在一定误差的搜索请求,提高搜索的准确性和召回率。通过合理选择最大编辑距离、使用通配符和应用编辑距离相似度计算,我们可以灵活地控制模糊查询的效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值