安装
下载
执行命令
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.0/elasticsearch-analysis-ik-7.4.0.zip
或浏览器直接输入地址
解压
在es安装目录的plugin文件夹下创建一个ik文件夹,将下载好的zip包拷贝到ik文件夹下
执行解压命令:
unzip elasticsearch-analysis-ik-7.4.0.zip
测试
重启es
测试是否安装成功,这里使用的是kibana
POST _analyze
{
"analyzer": "ik_max_word",
"text":"默认分词器"
}
使用
使用kibana创建映射
PUT /dangdang
{
"mappings": {
"properties":{
"name":{
"type":"text",
"analyzer": "ik_max_word"
},
"price":{
"type":"double"
},
"author":{
"type":"keyword"
},
"des":{
"type":"text",
"analyzer": "ik_max_word"
}
}
}
}
ik有ik_smart和ik_max_word两种分词方式,分别是最粗粒度和最细粒度分词
在使用分词的字段增加analyzer属性,值设置为ik_max_word
扩展
在es的plugin/ik/config目录下有个IKAnalyzer.cfg.xml文件
在同级目录创建一个.dic结尾的文件,我这里创建了一个my.dic,然后在里面设置分词
一行只能有一个词,字符编码必须是UTF-8,如果不是则不生效
编辑IKAnalyzer.cfg.xml文件
vim IKAnalyzer.cfg.xml
配置扩展的分词文件
重启es
扩展的分词对已有的数据不生效,只会对配置好分词之后添加的数据有效。
远程扩展配置
重启es
远程扩展配置的是文件地址,确保能访问到这个文件,文件编码必须为UTF-8。
扩展停止词字典是可以将已有分词不在继续分词