为了使用IK-中文分词器,特地去下载了一个,结果重启动ES之后,进入Kibana可视化界面,出现了503服务不可用;一开始以为是Kibana还没注册进ES中,结果等待了一会还是如此。
1.使用docker ps查看运行的容器,发现ES已经停掉了,只剩下了Kibana容器在运行
2.查看日志分析原因docker logs elasticsearch
根据提示可以得出是因为plugings目录下的插件IK分词器重复了。此时由于es容器无法启动,就无法直接去容器内部进行修改。不过幸运的是我对plugings、config、data这三个文件进行了挂载。进入挂载目录查看
对比两个文件中的内容
发现analysis-ik有的ik都有;将ananlysis-ik删除即可
3.重启ES,稍等片刻,访问http://ip:5601
成功!
4.测试中文分词功能
ES自带的分词器对中文不是很友好,它只能分成一个个的字。所以我们需要自己下载IK-中文分词器
IK-中文分词器下载:github.com/medcl/elasticsearch-analysis-ik/releases?page=1
分词成功!接下来就可以实现检索功能了