ElasticSearch使用ik中文分词器集成html_strip网页标签过滤器

绝招就是使用自定义分析器

可以参考官方文档

    https://www.elastic.co/guide/en/elasticsearch/reference/5.6/analysis-custom-analyzer.html

tokenizer

A built-in or customised tokenizer. (Required) 这个参数是必须的,分词令牌

char_filter

An optional array of built-in or customised character filters. 这个是过滤器,数组,可以添加多个


配置自定义的配置:

PUT my_index
{
  "settings": {
    "analysis": {
      "analyzer": {
        "名字随便取": {
          "tokenizer": "ik_smart或者ik_max_word",
          "char_filter": ["html_strip"]
        }
      }
    }
  }
}


配置mapping的时候引用

{
  "properties": {
   
    "article": {
      "type": "string",
      "analyzer": "上面你配置的自定义分词器名字",
      "search_analyzer": "ik_smart"
      }
  }
}
就是这么简单




评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值