日志分析系统 [ 3 ] --- Kibana 部署与使用,Kafka 和 zookeeper 集群的部署与使用,日志收集系统ELK

本文介绍了企业级日志分析系统ELK的搭建,重点讲解了Kibana的部署与使用,包括设置、运行和错误解决。同时,详细阐述了Kafka和Zookeeper集群的部署,包括JDK和Zookeeper的配置,Kafka的安装与验证,以及消息的生产和消费。
摘要由CSDN通过智能技术生成

企业级日志分析系统-ELK

日志收集系统ELK搭建

ELK简介

在传统项目中,如果在生产环境中,有多台不同的服务器集群,如果生产环境需要通过日志定位项目的Bug的话,需要在每台节点上使用传统的命令方式查询,这样效率非常低下。因此我们需要集中化的管理日志,ELK则应运而生。ELK=ElasticSeach+Logstash+Kibana,日志收集原理如下所示:

1、每台服务器集群节点安装Logstash日志收集系统插
2、每台服务器节点将日志输入到Logstash
3、Logstash将该日志格式化为json格式,根据每天创建不同的索引,输出到ElasticSearch
4、浏览器使用安装Kibana查询日志信息

一、Kibana 部署与使用

1、部署 Kibana

curl -L -O https://artifacts.elastic.co/downloads/kibana/kibana-7.10.0-linux-x86_64.tar.gz
tar xf kibana-7.10.0-linux-x86_64.tar.gz -C /usr/local/

mv  /usr/local/kibana-7.10.0-linux-x86_64  /usr/local/kibana

2、设置

设置变量

[elastic@n2 kibana]$ cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

10.9.29.168 ela1
10.9.29.169 ela2
10.9.29.170 ela3

设置环境
/kibana/config/kibana.yml

server.host: "0.0.0.0"
elasticsearch.hosts: ["http://ela1:9200", "http://ela2:9200", "http://ela3:9200"]
i18n.locale: "zh-CN"

3、运行 Kibana

没有需要需要运行Filebeat和Logstash 继续添加数据

给普通用户权限 并切换普通用户

[root@n2 ~]# chown elastic.elastic /usr/local/kibana/  -R
[root@n2 ~]# su - elastic
上一次登录:二 12月 29 08:20:55 EST 2020pts/0 上
^[[A[elastic@n2 cd  /usr/local/kibana/&
[elastic@n2 kibana]$ nohup  bin/kibana &
[1] 71843
[elastic@n2 kibana]$ nohup: ignoring input and appending output to ‘nohup.out’

4、访问网站

http://ip:5601
在这里插入图片描述

5、创建索引模式

Kibana需要使用索引模式来访问要浏览的Elasticsearch数据。索引模式选择要使用的数据,并允许您定义字段的属性。

索引模式可以指向特定索引,例如,您昨天的日志数据或包含您的数据的所有索引。它还可以指向 数据流或索引别名。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值