什么是分词器? 就是将一段中文或者别的划分成一个个关键字,我们在搜索的时候会将自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作。
IK提供了俩个分词算法:ik_smart和ik_max_smart,其中ik_smart为最少切分,ik_max_smart为最细粒度划分
安装
1、下载地址:https://github.com/medcl/elasticsearch-analysis-ik
2、下载完毕之后,放入到下图位置即可
3、重启观察ES,可以看到ik分词器
4、可以使elasticsearch-plugin -v
这个命令来查看加载进来的插件
注
意
\color{#FF0000}{注意}
注意
如果出现以下问题:需要切换到对应es文件下的plugins文件下删除.DS_Store
其中原因是:作者没有将这个文件放到git
管理文件中
1、切换到plugins文件夹
cd ...plugins
2、查看是否有.DS_Store
文件
ls -a
3、删除.DS_Store
文件
rm .DS_Store
测试
1、打开kibana
测试ik_smart
2、测试ik_max_smart
思
考
问
题
\color{#0000FF}{思考问题}
思考问题:如果我们想查着一个完整口号,我们应该怎么做
ik词典
1、建立一个me.dic
文件
2、修改IKAnalyzer.cfg.xml
文件
3、重启es即可。