首先安装ELasticSearch,安装步骤参见下面链接 :
ELK的在Centos上的安装实践 之ElasticSearch安装-CSDN博客
一、Kibana介绍
Kibana是一个开源的分析与可视化平台,设计出来用于和Elasticsearch一起使用的。你可以用kibana搜索、查看存放在Elasticsearch中的数据。Kibana与Elasticsearch的交互方式是各种不同的图表、表格、地图等,直观的展示数据,从而达到高级的数据分析与可视化的目的。
Elasticsearch、Logstash和Kibana这三个技术就是我们常说的ELK技术栈,可以说这三个技术的组合是大数据领域中一个很巧妙的设计。一种很典型的MVC思想,模型持久层,视图层和控制层。Logstash担任控制层的角色,负责搜集和过滤数据。Elasticsearch担任数据持久层的角色,负责储存数据。而我们这章的主题Kibana担任视图层角色,拥有各种维度的查询和分析,并使用图形化的界面展示存放在Elasticsearch中的数据。
二、安装
1、下载
https://www.elastic.co/cn/downloads/past-releases/kibana-8-12-2
2、解压
mkdir /usr/local/kibana
tar -zxvf /opt/software/kibana-8.12.2-linux-x86_64.tar.gz -C /usr/local/kibana/
cd /usr/local/kibana/kibana-8.12.2/
3、配置
vim /usr/local/kibana/kibana-8.12.2/config/kibana.yml
修改的内容如下:
# 端口号
server.port: 5601
# 允许所有ip访问
server.host: "0.0.0.0"
# kibana公共地址
server.publicBaseUrl: "http://127.0.0.1:5601"
# es访问地址
elasticsearch.hosts: ["http://127.0.0.1:9200"]
# 中文界面
i18n.locale: "zh-CN"
4、授予es用户权限:
chown -R zyf:zyf /usr/local/kibana/kibana-8.12.2
5、启动
su zyf
nohup /usr/local/kibana/kibana-8.12.2/bin/kibana &
访问:http://192.168.154.100:5601/
6、关闭Kibana
kill $(ps -ef | grep kibana | grep -v grep | awk '{print $2}')
三、分词器安装
1、下载
地址:Releases · infinilabs/analysis-ik · GitHub
2、安装
cd /usr/local/elasticSearch/elasticsearch-8.12.2/
./bin/elasticsearch-plugin install file:///opt/software/elasticsearch-analysis-ik-8.12.2.zip
在plugins文件夹中已经存在analysis-ik分词器
3、重新启动elasticsearch
4、测试
IK分词器提供了两种主要的分词模式:
细粒度分词模式(ik_max_word):
在这种模式下,IK分词器会尽可能地按照词典中的词语进行最大长度匹配,将文本切分成连续的词语序列。
这种模式适用于对文本进行细致的切分,会尽可能地将句子切分为最小的词语单元,能够获得更加精确的分词结果。
智能分词模式(ik_smart):
在智能切分模式下,IK分词器会结合词典匹配和机器学习算法,根据文本的上下文信息进行分词,保留词语的完整性。
这种模式能够更好地处理一些特殊情况,如未登录词和新词等,提高了分词的准确性和适用性。
四、自定义分词与取消分词
cd /usr/local/elasticSearch/elasticsearch-8.12.2/config/analysis-ik
1、创建文件ext.dic
vim ext.dic #里面的内容就是自定义的分词
内容如下:
奥利给
2、编辑stopword.dic
打开stopword.dic(里面的内容就是停止分词)
vim stopword.dic
在后面接着输入下面内容:
啊
嗷
哦
呵呵
嗯
哟
3、配置分词
vim IKAnalyzer.cfg.xml
4、重新启动es,进行测试
配置后的效果: