安装ik分词器
中文分词器下载:Release v7.4.2 · medcl/elasticsearch-analysis-ik · GitHub
方式一
下载"elasticsearch-analysis-ik-7.4.2.zip"文件,上传到主机docker映射“ /mydata/elasticsearch/plugins”目录下,然后解压到该文件夹下即可。安装完毕后,需要重启elasticsearch容器。
方式二
也可以到映射目录"/mydata/elasticsearch/plugins"执行下载,解压
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.2/elasticsearch-analysis-ik-7.4.2.zip
unzip elasticsearch-analysis-ik-7.4.2.zip -d ik
#必须删除zip文件
rm elasticsearch-analysis-ik-7.4.2.zip
设置权限,重启elasticsearch
chmod -R 777 ik
docker restart elasticsearch
查看是否安装成功
# 进入容器
docker exec -it 958 /bin/bash
# 进入bin目录
cd bin
# 查看插件列表
elasticsearch-plugin list
GET _analyze
{
"analyzer": "ik_smart",
"text":"我是中国人"
}
GET _analyze
{
"analyzer": "ik_max_word",
"text":"我是中国人"
}
{
"tokens" : [
{
"token" : "我",
"start_offset" : 0,
"end_offset" : 1,
"type" : "CN_CHAR",
"position" : 0
},
{
"token" : "是",
"start_offset" : 1,
"end_offset" : 2,
"type" : "CN_CHAR",
"position" : 1
},
{
"token" : "中国人",
"start_offset" : 2,
"end_offset" : 5,
"type" : "CN_WORD",
"position" : 2
}
]
}