elasticsearch 7.x 学习分享(2)
上一篇中已经安装好了es以及es head工具,本篇中会安装kibana以及ik分词器。
一、 Kibana的安装
概述:kibana是一个针对elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在elasticsearch索引中的数据。
其实这里也是可以使用postman等工具的,不过比起postman来说Kibana更像是java开发工具中的IDEA,,Kibana中会有代码提示等功能,针对elasticsear来说更加专业。
1. 下载安装
注意事项:Kibana需要安装node.js的环境
下载地址:Kibana官方下载
下载后解压即可。
解压完成后,启动/bin/kibana.bat,然后耐心的等待,启动的时间有一点长。
在启动完成后能够看到做后一行的端口:5601,访问端口号5601,等kibana主页打开后找到左侧的扳手图标
点击扳手图标就能进入开发工具台。
2. 工具汉化
汉化功能:这个可以选装
首先修改/config/kibana.yml,找到i18n.locale:”en”,打开注释,并将en修改为zh-CN,接着重启Kibana即可
二、 ik分词器
1. 分词器安装
下载地址:ik分词器下载
在elasticsearch的/plugins目录下新建/ik文件夹,将ik解压到文件夹中,重启elasticsearch,能够看到[analysis-ik]就成功了
2. 分词器测试
2.1 分词器基本算法
在ik中提供了两个分词器的算法:
ik_smart:最少划分(不可能有重复的数据)
ik_max_word: 最细粒度划分
首先启动Kibana,在控制台中数据分词的命令,这里首先使用ik_smart来划分,在左侧输入命令,然后点击左边窗口中的小三角
GET _analyze
{
“analyzer”:”ik_smart”,
“text”:”中国共产党”
}
接着来测试一下ik_max_word
GET _analyze
{
“analyzer”:”ik_max_word”,
“text”:”中国共产党”
}
这里能够直观的看到,ik_max_word将“中国共产党”的字符串拆分成了好几个词
2.2 新增字典
有的时候难免会遇到一些新词,说白了就是分词器不认识,需要在分词器的字典中添加
举个例子,假如我们搜索:战双帕弥什 理论上来说分词器中是没有的
两种分词算法的结果是一样的,在分词器的字典中是没有的
首先在elasticsearch/plugins/ik/config/目录下新建zhanshuang.dic,在文件中添加新词
接着在/ik/config/IKAnalyzer.cfg.xml中的entry标签中扩展字典
重启es以及Kibana再试一下,OK了!
总结
以上两篇部分已经安装了elasticsearch的基本开发环境,如果需要更加详细了解,清移步:B站狂神说