目录
2、下载完毕后解压,放入到elasticsearch的plugins下即可
3、重启elasticsearch,可以看到ik分词器被加载了
4、也可以通过elasticsearch-plugin这个命令来查看加载进来的插件
6.2、在当前目录下新建一个词典,my.dic(以.dic结尾,命名自己定义)
6.3、打开IKAnalyzer.cfg.xml文件(ik分词器的配置文件)
6.4、重启elasticsearch即可把自定义的词典加载进来
IK分词器是elasticsearch的一个插件
分词的主要用于把一段中文或者英文的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词器是将每个字看成一个词,比如"我爱技术"会被分为"我","爱","技","术",这显然不符合要求,所以我们需要安装中文分词器IK来解决这个问题
IK提供了两个分词算法:ik_smart和ik_max_word
ik_smart为最少切分,添加了歧义识别功能,推荐
ik_max_word为最细粒度切分,能切的都会被切掉
1、IK分词器下载
下载地址:https://github.com/medcl/elasticsearch-analysis-ik
注意要下载release版本,具体版本最好与elasticsearch的版本对应
如果下载了源码则需要自己手动打包
2、下载完毕后解压,放入到elasticsearch的plugins下即可
在elasticsearch的plugins下,可以新建一个文件夹管理ik分词器解压后的文件