分词器:
- ES在创建倒排索引时需要对文档分词。
- 在搜索时,需要对用户输入内容分词。
但默认的分词规则对中文处理并不友好。
在kibana的DevTools中测试:
POST /_analyze
{
"analyzer": "standard",
"text": "张三老铁学习java!"
}
post代表请求方式。
/_analyze代表分词分析。
analyzer分词类型,这里是默认的standard分词器。
text要分词的内容。
中文都直接被拆分成了一个个汉字,所以不能此分词器,要用lk分词器。
安装ik分词器
在线安装,不推荐较慢
# 进入容器内部
docker exec -it elasticsearch /bin/bash
# 在线下载并安装
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip
#退出
exit
#重启容器
docker restart elasticsearch
离线安装,推荐
# 查看elasticsearch的plugins目录位置
docker volume inspect es-plugins