IK分词器
什么是IK分词器?
分词即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,比说说“我爱中国”会被分为“我”,“爱”,“中”,“国”,这显然是不符合要求的,所以我们需要安装中文分词器IK来解决这个问题。
IK提供了两个分词算法:ik_smart和ik_max_word,其中ik_smart为最少切分,ik_max_word为最细粒度划分。
安装
下载完毕,解压到elasticsearch的plugins下
![360f67249978a01c616fa8cb8cfdd12d.png](https://i-blog.csdnimg.cn/blog_migrate/1fdfbf649c0a501d443064ae25dd794e.png)
使用kibana测试
使用ik_smart分词算法测试
使用ik_max_word分词算法测试
IK分词器增加自己的字典
查询“一碗小米粥”得到下面的结果
需要在IK插件的config路径下的IKAnalyzer.cfg.xml进行配置自己的字典
<?xml version="1.0" encoding="UTF-8"?>
properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置comment>
<entry key="ext_dict">xiaomizhou.dicentry>
<entry key="ext_stopwords">entry>
properties>设置自己的字典xiaomizhou.dic
重启ES加载词典,重新进行测试