elasticsearch 7.x 学习分享(2)

上一篇中已经安装好了es以及es head工具,本篇中会安装kibana以及ik分词器。

一、 Kibana的安装

概述:kibana是一个针对elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在elasticsearch索引中的数据。
其实这里也是可以使用postman等工具的,不过比起postman来说Kibana更像是java开发工具中的IDEA,,Kibana中会有代码提示等功能,针对elasticsear来说更加专业。

1. 下载安装

注意事项:Kibana需要安装node.js的环境
下载地址:Kibana官方下载
下载后解压即可。

解压完成后,启动/bin/kibana.bat,然后耐心的等待,启动的时间有一点长。
Kibana.bat
在启动完成后能够看到做后一行的端口:5601,访问端口号5601,等kibana主页打开后找到左侧的扳手图标Kibana

点击扳手图标就能进入开发工具台。

开发工具台

2. 工具汉化

汉化功能:这个可以选装
首先修改/config/kibana.yml,找到i18n.locale:”en”,打开注释,并将en修改为zh-CN,接着重启Kibana即可

汉化

二、 ik分词器

1. 分词器安装

下载地址:ik分词器下载

在elasticsearch的/plugins目录下新建/ik文件夹,将ik解压到文件夹中,重启elasticsearch,能够看到[analysis-ik]就成功了
ik分词器

ik分词器

2. 分词器测试

2.1 分词器基本算法

在ik中提供了两个分词器的算法:
ik_smart:最少划分(不可能有重复的数据)
ik_max_word: 最细粒度划分

首先启动Kibana,在控制台中数据分词的命令,这里首先使用ik_smart来划分,在左侧输入命令,然后点击左边窗口中的小三角

GET _analyze
{
	“analyzer”:”ik_smart”,
	“text”:”中国共产党”
}

ik_smart
接着来测试一下ik_max_word

GET _analyze
{
	“analyzer”:”ik_max_word”,
	“text”:”中国共产党”
}

ik_max_word这里能够直观的看到,ik_max_word将“中国共产党”的字符串拆分成了好几个词

2.2 新增字典

有的时候难免会遇到一些新词,说白了就是分词器不认识,需要在分词器的字典中添加
举个例子,假如我们搜索:战双帕弥什 理论上来说分词器中是没有的

搜索战双帕弥什
两种分词算法的结果是一样的,在分词器的字典中是没有的
首先在elasticsearch/plugins/ik/config/目录下新建zhanshuang.dic,在文件中添加新词

zhanshuang.dic

接着在/ik/config/IKAnalyzer.cfg.xml中的entry标签中扩展字典
扩展配置

重启es以及Kibana再试一下,OK了!

成功

总结

以上两篇部分已经安装了elasticsearch的基本开发环境,如果需要更加详细了解,清移步:B站狂神说

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值