IK分词器(ES插件)
分词即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个个匹配操作,默认的中文分词是将每个字看成一个词,这是不符合要求的,所以我们需要安装中文分词器ik来解决这个问题
ik分词器的仓库地址:
Release v7.17.3 · medcl/elasticsearch-analysis-ik · GitHub
注意:ik分词器的版本要和Elasticsearch的版本一致。
在安装ElasticsearchIk分词器插件的时候遇到了以下问题:
Elasticsearch重启失败:
删除掉plugins目录下的隐藏文件:
再双击bin目录下的Elasticsearch重新启动,熟悉的界面就回来了: