通过Analyzer进行分词
Anailzer的组成
- character filters : 针对原始文本处理,例如去除html
- tokenizer :按照规切分为单词
- token filter 将切分的单词进行加工,小写,删除 stopwords 增加同义词
elasticsearch 的内置分词器
-
Standard Analyzer - 默认分词器,按词切分,小写处理
-
Simple Analyzer - 按照非字母切分(符号被过滤),小写处理
-
Stop Analyzer - 小写处理,停用词过滤(the, a,is)
-
Whitespace Analyzer - 按照空格切分,不转小写
-
Keyword Analyzer - 不分词,直接将输入当作输出
-
Patter Analyzer - 正则表达式,默认\W+(非自负分隔)
-
Language - 提供了30多种 常见语言的分词器