Elasticsearch 创建自定义分析器(4)

一.自定义分析器

  当内置分析器不能满足时,可以创建一个自定义分析器,自定义分析器(analyzer)由:

      1)0或多个 charactcr filter 字符过滤器

      2)  1个 tokenizer 分词器,将文本切分为分词

         3)0或多个 token filter 令牌过滤器,是属于分词后再过滤

  自定义配置参数如下

type分析器类型,接收内置分析器类型,可以使用custom(代表自定义分析器)或者省略此参数
tokenizer内置或自定义分词器 (必填)
char_filter内置或自定义字符过滤器(character filters)  可选数组
filter内置或自定义令牌过滤器(token filter)可选数组
position_increment_gap间隙值,跨值访问,一般用于match_phrase短语查询检索数据,默认值100

  示例1:自定义一个分析器

    1)char_filter字符过滤器:使用html_strip去除html标签

    2)  tokenizer分词器:使用standard标准分词器

    3)filter令牌过滤器: 使用 lowercase转小写,使用asciifolding转为ascii


    定义分析器结构如下:

PUT my-index-000001
{
  "settings": {
    "analysis": {
      "analyzer": {
        "my_custom_analyzer": {  #自定义一个分析器
          "type": "custom", 
          "tokenizer": "standard",  #使用标准分析词
          "char_filter": [     #使用char_filter字符过滤器
            "html_strip"
          ],
          "filter": [        #使用filter过滤器
            "lowercase",
            "asciifolding"
          ]
        }
      }
    }
  }
}

    使用自定义分析器分词

POST my-index-000001/_analyze
{
  "analyzer": "my_custom_analyzer",
  "text": "Is this <b>déjà vu</b>?"
}

    查看分词结果: [ is,this,deja,vu]

  示例2:自定义一个复杂分析器,它结合了以下内容:

    1)char_filter字符过滤器:自定义Mapping Character Filter映射:

      :)   符号映射为  _happy_ 

      :(   符号映射为  _sad_ 

    2) tokenizer分词器:自定义Pattern 模式分词器

    3) filter令牌过滤器:  lowercase转小写,自定义过滤停用词

    定义分析器结构:

PUT my-index-000001
{
  "settings": {
    "analysis": {
      "analyzer": {
        "my_custom_analyzer": {   #自定义一个分析器
          "char_filter": [
            "emoticons"           #自定义自符过滤器
          ],
          "tokenizer": "punctuation",     #自定义一个分词器
          "filter": [
            "lowercase",
            "english_stop"
          ]
        }
      },
      "tokenizer": {          
        "punctuation": {           #模式分词器的配置
          "type": "pattern",
          "pattern": "[ .,!?]"     #以里面符号来分词
        }
      },
      "char_filter": {         #字符过滤器的配置映射
        "emoticons": { 
          "type": "mapping",
          "mappings": [
            ":) => _happy_",
            ":( => _sad_"
          ]
        }
      },
      "filter": {           #令牌过滤器的配置,过滤停用词
        "english_stop": {  
          "type": "stop",
          "stopwords": "_english_"
        }
      }
    }
  }
}

    使用自定义的分析器分词

POST my-index-000001/_analyze
{
  "analyzer": "my_custom_analyzer",
  "text": "I'm a :) person, and you?"
}

    查看分词结果:[ i'm, _happy_, person,you]

参考官方资料:Create a custom analyzer

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在 Elasticsearch 中,禁用不必要的分析器可以通过以下两种方式实现: 1. 在索引映射中指定字段的分析器为 "keyword" 或 "whitespace",这将禁用分析器并将字段视为一个整体进行索引和搜索。 示例映射: ``` { "mappings": { "properties": { "title": { "type": "text", "analyzer": "keyword" }, "description": { "type": "text", "analyzer": "whitespace" } } } } ``` 2. 在查询中使用 "term" 或 "match_phrase" 查询,这将禁用查询字符串的分析器,并将查询字符串视为一个整体进行搜索。 示例查询: ``` { "query": { "term": { "title": "Elasticsearch" } } } ``` ### 回答2: 在 Elasticsearch 中,禁用不必要的分析器是为了提高搜索性能和减少资源占用。以下是一些禁用不必要分析器的方法: 1. 禁用默认分析器Elasticsearch 会默认使用一个名为"standard"的分析器,可以通过指定一个空的分析器来禁用它。例如,在创建索引时,可以将字段的分析器设置为空字符串: ``` PUT /my_index { "settings": { "analysis": { "analyzer": { "default": { "type": "custom", "tokenizer": "standard", "filter": [] } } } }, "mappings": { "properties": { "my_text_field": { "type": "text", "analyzer": "" } } } } ``` 2. 禁用特定分析器:如果你只想禁用特定分析器而不是默认分析器,可以使用空字符串或指定一个无效的分析器名称。例如: ``` PUT /my_index/_settings { "analysis": { "analyzer": { "my_analyzer": "none" } } } ``` 3. 禁用搜索时的分析器:在进行搜索时,默认情况下 Elasticsearch 会使用相同的分析器对搜索查询进行分词。如果你的查询涉及到一个不需要分词的字段,你可以使用`match_phrase`等查询类型来禁用搜索时的分析器。例如: ``` GET /my_index/_search { "query": { "match_phrase": { "my_non_analyzed_field": { "query": "Some text", "analyzer": "keyword" } } } } ``` 通过以上方法,可以禁用不必要的分析器,从而提高 Elasticsearch 的搜索性能和减少资源占用。 ### 回答3: 在Elasticsearch中,我们可以通过禁用不必要的分析器来优化索引和搜索性能。 首先,分析器在索引和搜索过程中负责将文本转换为标记(tokens),并执行各种文本处理任务,例如分词、小写转换、去除停用词等。但是,并不是所有的字段都需要进行分析,尤其是那些已经是标记化或已经处理好的字段。 要禁用不必要的分析器,我们可以通过定义一个自定义分析器并将其配置为"standard"分析器的别名来实现。例如,如果我们有一个名为"raw"的字段,它已经是标记化或已经进行了所需的文本处理,我们可以将其配置为别名为"keyword"的"standard"分析器。配置示例如下: PUT my_index { "settings": { "analysis": { "analyzer": { "my_custom_analyzer": { "type": "custom", "tokenizer": "standard", "filter": ["lowercase"] } } } }, "mappings": { "properties": { "raw": { "type": "text", "analyzer": "my_custom_analyzer", "search_analyzer": "keyword" } } } } 在上面的示例中,我们使用了自定义分析器"my_custom_analyzer",它只包含了一个"standard"分词器和一个"lowercase"过滤器。然后,我们将"raw"字段映射为"text"类型,并将其指定为"my_custom_analyzer"分析器,同时将搜索分析器设置为"keyword",这样就禁用了不必要的分析器。 通过禁用不必要的分析器,我们可以减少不必要的计算和内存开销,提高Elasticsearch的索引和搜索性能,并节省存储空间。但是需要注意的是,禁用分析器可能会影响搜索的精确性和效果,因此在禁用之前应先评估其对搜索结果的影响。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值