elasticsearch 分析分词

分析分词

POST /bank/_analyze
{
  "analyzer": "autoComplete",
  "text":     "杜克"
}

autoComplete 为我创建索引时自定义分词

用ik_max_word分词器分词

POST /_analyze
{
  "analyzer": "ik_max_word",
  "text":     "杜克"
}

分词结果

{
  "tokens" : [
    {
      "token" : "杜克",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 0
    }
  ]
}

看到是未分词成功的

默认使用standard标准分词器

POST /_analyze
{
  "analyzer": "standard",
  "text":     "杜克"
}

可以分词

所以我在创建索引时自定义了分词器

"analysis":{
          "analyzer":{
            "autoComplete":{
              "type":"custom",
              "tokenizer":"standard",
              "filter":["lowercase","autoCompleteFilter"]}},
              "filter":{
                "autoCompleteFilter":{
                "type":"edgeNGram",
                "min_gram":1,
                "max_gram":50
              }
          }
        }

用自定义分词 autoComplete 需要加上索引

POST /bank/_analyze
{
  "analyzer": "autoComplete",
  "text":     "杜克"
}

是成功的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值