Elasticsearch之分词器

目录

什么是分词

使用ES原生分词器

中文分词

ik分词器的冷更新

ik分词器的热更新


 

什么是分词

 

分词就是指将一个文本转化成一系列单词的过程,也叫文本分析,在Elasticsearch中称之为Analysis。

举例:我是中国人 --> 我/是/中国人 

 

 

使用ES原生分词器

 

我们国内项目很少用到内置分词,主要由于汉语中没有明显分隔点,而不像英文单词 空格 单词。所以对于英文的内置分词这里只做简单说明

  • Standard:标准分词,按单词切分,并且会转化成小写
  • Simple分词器,按照非单词切分,并且做小写处理
  • Whitespace是按照空格切分。
  • Stop分词器,是去除Stop Word语气助词,如the、an等。
  • Keyword分词器,意思是传入就是关键词,不做分词处理。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值