前言:
什么是IK分词器?
分词:即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词器是将每个字看成一个词,比如"我爱技术"会被分为"我",“爱”,“技”,“术”,这显然不符合要求,所以我们需要安装中文分词器IK来解决这个问题
IK提供了两个分词算法:ik_smart和ik_max_word
其中ik_smart为最少切分,ik_max_word为最细粒度划分
一、下载
下载版本对应ElasticSearch
的版本
下载地址:https://github.com/medcl/elasticsearch-analysis-ik/
二、配置
将下载的Ik分词器解压到ElasticSearch
的plugins
目录系啊
三、启动测试
启动ElasticSearch
红框里面表示IK分词器插件加载成功
启动kibana进行测试
进入kibana