中文分词器(IK)
下载的时候注意一下,最好不要下高版本的,而且最好和你的elasticsearch版本一样,不然后面配置可能会有报错
我用的是 6.3.0 版本,最新版本配置会出错
-
解压后使用 mvn 命令打包(
本地要配置maven环境变量
)mvn package
-
会发现多了一个target
- 进入安装目录/target/releases
- 解压文件夹下压缩包
解压后删除压缩包
,看到如下目录:
-
在elasticsearch-6.3.0/plugins 下新建 ik 文件夹
-
将解压后的文件复制进来
-
最后重启 elasticsearch
-
最后再说一下,不要用高版本的
-
最好和你的 elasticsearch 版本一致
-
-
使用 kibana 测试 (不明白的请阅读两篇前置文章)
- 使用大概说明:Kibana安装和简单使用
-
输入(发请求)
GET _analyze { "analyzer":"ik_max_word", "text":"庭前云落天下无双" }
-
输出(响应JSON数据)
{ "tokens": [ { "token": "庭前", "start_offset": 0, "end_offset": 2, "type": "CN_WORD", "position": 0 }, { "token": "云", "start_offset": 2, "end_offset": 3, "type": "CN_CHAR", "position": 1 }, { "token": "落", "start_offset": 3, "end_offset": 4, "type": "CN_CHAR", "position": 2 }, { "token": "天下无双", "start_offset": 4, "end_offset": 8, "type": "CN_WORD", "position": 3 }, { "token": "天下", "start_offset": 4, "end_offset": 6, "type": "CN_WORD", "position": 4 }, { "token": "无双", "start_offset": 6, "end_offset": 8, "type": "CN_WORD", "position": 5 } ] }