[ElasticSearch系列三] Elasticsearch IK分词器 介绍、下载、安装及使用

前言

我们在elasticsearch查询数据时默认使用的是标准分词器(analyze),它会将所查词汇中的每个字单独分成一个词,因此我们就引进IK分词器,对中文进行分词,此外对中文进行分词的分词器还有很多(例:word分词器、庖丁解牛、盘古分词,Ansj分词等)

  • 例如: 我是程序员
  • analyze分词器效果是: 我、是、程、序、员
  • IK分词器效果 : 我、是、程序、程序员

前面我们分析了ElasticSearch的安装步骤
[ElasticSearch系列二] Linux中单机ElasticSearch安装教程+启动【附图解说】_萌小崔的博客-CSDN博客

本章主要对Elasticsearch 中插件 IK分词器进行介绍及使用坐下解释


介绍 - IK分词器 

        IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包.从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本.最初,它是以开源项目Lucene为应用主体的,结合词典分词语法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现.

 IK分词器3.0的特性

  1. 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力
  2. 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,字科学计数法,中文词汇(姓名、地名处理)等分词处理

  3. 对中英联合支持不是很好,在这方面的处理比较麻烦.需再做一次查询,同时是支持个人词条的优化的词典存储,更小的内存占用.

  4. 支持用户词典扩展定义

  5. 针对Lucene全文检索优化的查询分析器IKQueryParser;采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率.


下载 - IK分词器 

官网下载地址:   Releases · medcl/elasticsearch-analysis-ik · GitHub

注意 : 一定要下载和你所使用的Elasticsearch版本相同的IK分词器 


安装 - IK分词器

步骤一: 将下载好的 elasticsearch-analysis-ik-6.6.2.zip 解压并重命名为ik

步骤二:将ik分词器上传到我们的es的plugins/ik目录下,后重启系统

 步骤三:启动elasticsearch,验证ik分词器

安装成功!!


使用 -  IK分词器 - 两个IK分析器

  • ik_smart: 将文本做最细粒度的拆分

例: '我是程序员'   拆分为  我、是、程序员

  • k_max_word: 将文本做最细粒度的拆分

例: '我是程序员'  拆分为  我、是、程序、程序员‘


用法
        在查询字段后制定IK分词器即可,分析器二选一自定,看下面实例

{
  "query": {
    "match": {
      "analyzer": "ik_max_word",
      "content": "中国新闻网"
    }
  }
}


如有问题,留言互动,一同进步!!

Thanks! 

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

北九二七

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值