Elasticsearch入门3 -通过Analyzer进行分词

本文介绍了Elasticsearch中的Analyzer,分析过程涉及字符过滤器、分词器和词元过滤器。Standard Analyzer是默认分析器,包括Standard Tokenizer和小写过滤器。Simple Analyzer使用Lowercase Tokenizer并按非字母切分,提高效率。Whitespace Analyzer按空格分词,Stop Analyzer在Standard Analyzer基础上移除停用词。Keyword Analyzer不进行分词,而Pattern Analyzer利用正则表达式分词。
摘要由CSDN通过智能技术生成
Analysis 与 Analyzer
  • Analysis 文本分析就是把全文转换为一些列单词的过程,也叫分词
  • Analysis 是通过 Analyzer 来实现的
    • 可使用Elasticsearch 内置的分析器 或者按需定制分析器
  • 除了在数据写入时转换词条,匹配Query语句的时候也需要用相同的分析器对查询语句进行分析

Analyzer的组成

无论是内建的还是自定义的都是一个包,且包含了character filterstokenizers,和token filters3个部分。

  • Character filters(字符过滤器):字符过滤器以字符流的形式接收原始文本,并可以通过添加、删除或更改字符来转换流。 例如,字符过滤器可用于将印度-阿拉伯数字 (٠ ١٢٣٤٥٦٧٨ ٩ ) 转换为它们的阿拉伯-拉丁数字 (0123456789),或从流中去除 <b>等 HTML 元素。

    分析器可能有零个或多个字符过滤器,它们按顺序应用。

  • Tokenizer(分词器):分词器接收字符流,将其分解为单独的标记(通常是单个单词),然后输出标记流。 例如,空格标记器在看到任何空格时将文本分解为标记。 它会转换文本“Quick brown fox!”为Terms [Quick,brown,fox!]。

    分词器还负责记录Term的顺序或位置以及原始单词的开始和结束字符偏移量。

    一个分析器必须只有一个分词器

  • To

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值