下载与Elasticsearch版本对应的ik分词器
下载地址:https://github.com/medcl/elasticsearch-analysis-ik/tags
打开Elasticsearch的安装目录,在plugins下创建文件ik。
sh-4.2# cd plugins/
sh-4.2# mkdir ik
下载后拷贝到刚才创建的ik目录下,后面部分的“:”前面的是容器的名称,默认的容器名称是elasticsearch,输入命令:docker ps查看容器名称。
PS C:\WINDOWS\system32> docker cp C:\Users\Administrator\Desktop\elasticsearch-analysis-ik-7.6.2.zip elasticsearch:/usr/share/elasticsearch/plugins/ik
可以通过ls -l,查看是否拷贝成功,成功后,解压。
sh-4.2# unzip elasticsearch-analysis-ik-7.6.2.zip
重启Elasticsearch,然后在kibana中测试。
# standard 按单字拆分
POST _analyze
{
"analyzer": "standard",
"text": ["我爱你中国"]
}
# ik_smart 小粒度拆分
POST _analyze
{
"analyzer": "ik_smart",
"text": ["我爱你中国"]
}
# ik_max_word 大粒度拆分
POST _analyze
{
"analyzer": "ik_max_word",
"text": ["我爱你中国"]
}
为索引修改默认分词器
PUT /demo
{
"settings": {
"index": {
"analysis.analyzer.default.type": "ik_max_word"
}
}
}