安装ik分词插件
Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词。
1. 下载ik工具包(由于ik分词工具要求版本号要与ES的版本相对应所以下载1.9.4版本)
GitHub地址
2. 将下载的elasticsearch-analysis-ik-1.9.4.zip解压至elasticsearch//plugins/文件夹中
unzip /Document/elasticsearch-analysis-ik-1.9.4.zip -d /usr/local/elasticsearch/plugins/elasticsearch-analysis-ik
如果提示没有zip命令,则需要安装zip(需要root权限)
yum install -y unzip zip
3.运行elasticsearch
cd /usr/local/elasticsearch
./bin/elasticsearch
出现下图所示,则安装成功:
ik分词测试
- 创建一个索引,名为index。localhost要与配置文件一致
curl -XPUT http://localhost:9200/index
- 为索引index创建mapping
curl -XPOST http://localhost:9200/index/fulltext/_mapping -d'
{
"fulltext": {
"_all": {
"analyzer": "ik"
},
"properties": {
"content": {
"type" : "string",
"boost" : 8.0,
"term_vector" : "with_positions_offsets",
"analyzer" : "ik",
"include_in_all" : true
}
}
}
}'
3. 测试
curl 'http://localhost:9200/index/_analyze?analyzer=ik&pretty=true' -d '
{
"text":"世界如此之大"
}'
4. 显示结果如下: