elasticsearch分词器-analyzer

这里写自定义目录标题

一,分词器

分词器由三部分构成:character filter、tokenizer、tokenizer filter

二,主要的分词器

GET /_analyze
{
  "analyzer": "standard",
  "text":"I am a student"
}
// 使用某个索引的某个字段的分词器
POST lcy_test/_analyze
{
  "field": "name",
  "text":"Lebron James"
}
// 标准分词器,按词切分,转小写,不过滤助词等
GET /_analyze
{
  "analyzer": "standard",
  "text":"I am a good boy"
}
// 简单分词器,按非字符切分,转小写,不过滤助词等
GET /_analyze
{
  "analyzer": "simple",
  "text":"I am a-good boy"
}
// 空格分词器,按空格切分
GET /_analyze
{
  "analyzer": "whitespace",
  "text":"I am A-good boy"
}
// stop分词器,按非字符进行,去除助词等
GET /_analyze
{
  "analyzer": "stop",
  "text":"I am A-good boy"
}
// keyword分词器,不切分
GET /_analyze
{
  "analyzer": "keyword",
  "text":"I am A-good boy"
}
// pattern分词器,按正则表达式切分,可自定义正则表达式,默认按非字符切分
GET /_analyze
{
  "analyzer": "pattern",
  "text":"I am A-good boy"
}

mapping分词器

POST _analyze
{
  "tokenizer": "keyword",
  "char_filter": [
       {
         "type":"mapping",
         "mappings":["== => am"]
       }
    ]
    , "text": "I == GOOD BOY"
}

html字符处理器,将html标签去除

POST _analyze
{
  "tokenizer": "keyword",
  "char_filter": [
       {
         "type":"mapping",
         "mappings":["== => am"]
       },
       "html_strip"
    ]
    , "text": "I == <b>GOOD<b/> BOY"
}

// 路径分词器

POST _analyze
{
  "tokenizer": "keyword",
  "char_filter": [
       {
         "type":"mapping",
         "mappings":["== => am"]
       },
       "html_strip"
    ]
    , "text": "I == <b>GOOD<b/> BOY"
}

// 后置处理,去除无实际意义的词,如助词、语气词

POST _analyze
{
  "tokenizer": "whitespace",
  "filter": ["lowercase","stop"],
  "text": "The classroom is not here"
}
// 自定义analyzer
PUT lcy_test3
{
  "settings": {
    "analysis": {
      "analyzer": {
        "lcy_test3_ana":{
          "type":"custom",
          "char_filter":["lcy_test3_char_filter"],
          "tokenizer":"lcy_test3_tokenizer",
          "filter":["lowercase","lcy_test3_char_filter"]
        }
      },
      "char_filter": {
        "lcy_test3_char_filter":{
          "type":"mapping",
          "mappings":["== => 等等"]
        }
      },
      "tokenizer": {
        "lcy_test3_tokenizer":{
          "type":"pattern",
          "pattern":"[.,/?]"
        }
      },
      "filter": {
        "lcy_test3_char_filter":{
          "type":"stop",
          "stopwords":"hh"
        }
      }
    }
  }
}
POST lcy_test3/_analyze
{
  "analyzer": "lcy_test3_ana",
  "text":"I hh == for? me"
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小手追梦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值