中文分词器全称IK分词器;注意:这个分词器的版本也要和ES的版本是一致的!!!也要是6.5.4的; 装ES必须的步骤
(1)进入ES容器内部;docker exec -it elasticsearch bash
(2)进入bin目录 :cd bin
(3)执行语句下载: (一体的语句)
./elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.5.4/elasticsearch-analysis-ik-6.5.4.zip
(4)输入y执行安装;
(5)重启ES让IK分词器生效;
(6)测试:在Kibana 开发工具里输入语句,运行是否分词;
POST _analyze
{
"analyzer": "ik_max_word",
"text":"中国华为"
}
语句含义:执行一个POST请求;_analyze 是分析的意思,什么分析呢?括号里的analyzer指是分词的意思,分词的工具就是ik_max_word就是IK分词器(其中一个工具),是最大分词器的意思;text表示内容,表示的是里面需要分词的内容;
。。。。。。。。。。。。。
嘻哈的简写笔记
。。。。。。。。。。。。。