使用IK分词器可以实现对中文分词的效果。
下载IK分词器:
(Github地址:https://github.com/medcl/elasticsearch-analysis-ik/releases)
下载Zip包:
注:分词器版本需要跟Elasticearch使用的版本保持一致。
解压,并将解压的文件拷贝到ES安装目录的plugins下的ik目录下(如果没有ik文件夹,自建一个)
如果Elasticearch以docker方式运行,则运行:
sudo docker cp [ 文件夹所在位置 ] [容器id]:/usr/share/elasticearch/plugins