通过Analyzer进行分词

本文介绍了Analyzer的组成,包括character filters、tokenizer和token filter,并详细列举了elasticsearch的内置分词器,如Standard Analyzer、Simple Analyzer和Stop Analyzer等。还提到了自定义分词器和一些流行的中文分词器,如IK和THULC。
摘要由CSDN通过智能技术生成


在这里插入图片描述

Anailzer的组成

在这里插入图片描述

  • character filters : 针对原始文本处理,例如去除html
  • tokenizer :按照规切分为单词
  • token filter 将切分的单词进行加工,小写,删除 stopwords 增加同义词
elasticsearch 的内置分词器
  • Standard Analyzer - 默认分词器,按词切分,小写处理

  • Simple Analyzer - 按照非字母切分(符号被过滤),小写处理

  • Stop Analyzer - 小写处理,停用词过滤(the, a,is)

  • Whitespace Analyzer - 按照空格切分,不转小写

  • Keyword Analyzer - 不分词,直接将输入当作输出

  • Patter Analyzer - 正则表达式,默认\W+(非自负分隔)

  • Language - 提供了30多种 常见语言的分词器

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值