Elasticsearch-IK分词器

IK分词器

什么是分词器? 就是将一段中文或者别的划分成一个个关键字,我们在搜索的时候会将自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作。

IK提供了俩个分词算法:ik_smartik_max_smart,其中ik_smart为最少切分,ik_max_smart为最细粒度划分

安装

1、下载地址:https://github.com/medcl/elasticsearch-analysis-ik
2、下载完毕之后,放入到下图位置即可
在这里插入图片描述
3、重启观察ES,可以看到ik分词器
在这里插入图片描述
4、可以使elasticsearch-plugin -v这个命令来查看加载进来的插件
在这里插入图片描述
注 意 \color{#FF0000}{注意}
如果出现以下问题:需要切换到对应es文件下的plugins文件下删除.DS_Store其中原因是:作者没有将这个文件放到git管理文件中

在这里插入图片描述

1、切换到plugins文件夹

cd ...plugins

2、查看是否有.DS_Store文件

ls -a

3、删除.DS_Store文件

rm .DS_Store

测试

1、打开kibana测试ik_smart

在这里插入图片描述
2、测试ik_max_smart
在这里插入图片描述
思 考 问 题 \color{#0000FF}{思考问题} :如果我们想查着一个完整口号,我们应该怎么做

ik词典

1、建立一个me.dic 文件
在这里插入图片描述
2、修改IKAnalyzer.cfg.xml文件
在这里插入图片描述
3、重启es即可。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

敏姐儿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值