ELK+kafka+filebeat企业内部日志分析系统

目录

一、组件介绍

1、Elasticsearch

2、Logstash

3、Kibana

4、Kafka

 5、Filebeat

 二、环境介绍

1、版本说明

2、测试环境配置

3、整体搭建框架 

 三、Elasticsearch集群部署

1、创建运行es的普通用户

2、安装配置ES

 3、设置JVM大小#7.0默认4G

4、创建ES数据及日志存储目录

5、修改安装目录及存储目录权限

6、系统优化 

 7、启动·ES服务

四、安装head监控插件(在一台es服务器部署)

1、安装node

2、下载head插件

3、安装grunt

4、修改head配置文件

 5、下载head必要的文件

6、运行head插件

7、测试访问

五、Kibana部署

1、安装部署Kibana

2、启动Kibana服务

3、查看Kibana端口(5601)

4、安装配置nginx反向代理

(1)配置yum源

(2)安装ngnx、httpd-tools

 (3)配置反向代理

(4)配置授权用户和密码

(5)启动nginx服务

 (6)测试访问

六、Kafka部署

1、服务器准备

2、安装配置jdk8

3、安装配置ZK

 4、配置Kafka

 5、启动、验证ZK集群

七、部署logstash

1、安装

2、启动Kibana

3、查看索引


一、组件介绍

1、Elasticsearch

        Elasticsearch是一个基于Lucene的搜索服务器。提供搜集、分析、存储数据三大功能。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。

2、Logstash

      主要是用来日志的搜集、分析、过滤日志的工具。用于管理日志和事件的工具,你可以用它去收集日志、转换日志、解析日志并将他们作为数据提供给其它模块调用,例如搜索、存储等。

3、Kibana

      是一个优秀的前端日志展示框架,它可以非常详细的将日志转化为各种图表,为用户提供强大的数据可视化支持,它能够搜索、展示存储在 Elasticsearch 中索引数据。使用它可以很方便的用图表、表格、地图展示和分析数据。

4、Kafka

数据缓冲队列。作为消息队列解耦合处理过程,同时提高了可扩展性。具有峰值处理能力,使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。

  • 1.发布和订阅记录流,类似于消息队列或企业消息传递系统。

  • 2.以容错持久的方式存储记录流。

  • 3.处理记录发生的流。

 5、Filebeat

隶属于Beats,轻量级数据收集引擎。基于原先 Logstash-fowarder 的源码改造出来。换句话说:Filebeat就是新版的 Logstash-fowarder,也会是 ELK Stack 在 Agent 的第一选择,目前Beats包含四种工具:

  • 1.Packetbeat(搜集网络流量数据)

  • 2.Metricbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据。通过从操作系统和服务收集指标,帮助您监控服务器及其托管的服务。)

  • 3.Filebeat(搜集文件数据)

  • 4.Winlogbeat(搜集 Windows 事件日志数据)

 二、环境介绍

1、版本说明

Elasticsearch: 7.13.2
Logstash: 7.13.2
Kibana: 7.13.2
Kafka: 2.11-1
Filebeat: 7.13.2

2、测试环境配置

安装软件主机名IP地址系统版本配置
Elasticsearch/Logstash/kibanaElk192.168.18.161centos72核4G
ElasticsearchEs1192.168.18.162centos7.5.18042核3G
ElasticsearchEs2192.168.18.163centos7.5.18042核3G
zookeeper/kafkaKafka110.3.145.41centos7.5.18041核2G
zookeeper/kafkaKafka210.3.145.42centos7.5.18041核2G
zookeeper/kafkaKafka310.3.145.43centos7.5.18041核2G

3、整体搭建框架 

 三、Elasticsearch集群部署

1、创建运行es的普通用户

[root@elk ~]# useradd es  创建用户
[root@elk ~]# echo "******" | passwd --stdin "es"   设置密码

2、安装配置ES

[root@elk ~]# tar zxvf /usr/local/package/elasticsearch-7.13.2.tar.gz -C /usr/local/ 
[root@elk ~]# vim /usr/local/es/config/elasticsearch.yml

cluster.name    集群名称,各节点配成相同的集群名称。
cluster.initial_master_nodes 集群ip,默认为空,如果为空则加入现有集群,第一次需配置
node.name       节点名称,各节点配置不同。
node.master     指示某个节点是否符合成为主节点的条件。
node.data       指示节点是否为数据节点。数据节点包含并管理索引的一部分。
path.data       数据存储目录。
path.logs       日志存储目录。
bootstrap.memory_lock       内存锁定,是否禁用交换,测试环境建议改为false。
bootstrap.system_call_filter    系统调用过滤器。
network.host    绑定节点IP。
http.port       rest api端口。
discovery.seed_hosts    提供其他 Elasticsearch 服务节点的单点广播发现功能,这里填写除了本机的其他ip
discovery.zen.minimum_master_nodes  集群中可工作的具有Master节点资格的最小数量,官方的推荐值是(N/2)+1,其中N是具有master资格的节点的数量。
discovery.zen.ping_timeout      节点在发现过程中的等待时间。
discovery.zen.fd.ping_retries        节点发现重试次数。
http.cors.enabled               是否允许跨源 REST 请求,用于允许head插件访问ES。
http.cors.allow-origin              允许的源地址。

 3、设置JVM大小#7.0默认4G

[root@elk ~]# sed -i 's/## -Xms4g/-Xms4g/' /usr/local/es/config/jvm.options  
[root@elk ~]# sed -i 's/## -Xmx4g/-Xmx4g/' /usr/local/es/config/jvm.options

4、创建ES数据及日志存储目录

[root@elk ~]# mkdir -p /data/elasticsearch/data
[root@elk ~]# mkdir -p /data/elasticsearch/logs

5、修改安装目录及存储目录权限

 [root@elk ~]# chown -R es.es /data/elasticsearch
 [root@elk ~]# chown -R es.es /usr/local/es

6、系统优化 

(1)增加最大文件打开数

永久生效的方法:

[root@elk ~]# echo "* soft nofile 65536" >> /etc/security/limits.conf

(2)增加最大进程数

[root@elk ~]# echo "* soft nproc 65536" >> /etc/security/limits.conf

 * soft nofile 65536
* hard nofile 131072
* soft nproc 4096
* hard nproc 4096
更多的参数调整可以直接用这个

(3)增加最大内存映射数

[root@elk ~]# echo "vm.max_map_count=262144" >> /etc/sysctl.conf
[root@elk ~]# sysctl -p

 7、启动·ES服务

[root@elk ~]# su - es
[root@elk ~]# cd /usr/local/es
[root@elk ~]# ./bin/elasticserach

查看端口(Elasticsearch默认端口9200.9300)

浏览器测试访问192.168.18.161:9200

 访问成功

四、安装head监控插件(在一台es服务器部署)

1、安装node

[root@elk ~]# tar -zxf node-v10.0.0-linux-x64.tar.gz –C /usr/local
[root@elk ~]# echo "
NODE_HOME=/usr/local/node-v10.0.0-linux-x64
PATH=\$NODE_HOME/bin:\$PATH
export NODE_HOME PATH
" >>/etc/profile
[root@elk ~]# source /etc/profile
[root@elk ~]# node --version   #检查node版本号

2、下载head插件

[root@elk ~]# wget https://github.com/mobz/elasticsearch-head/archive/master.zip
[root@elk ~]# unzip –d /usr/local elasticsearch-head-master.zip

3、安装grunt

[root@elk ~]# cd /usr/local/elasticsearch-head-master
[root@elk ~]# npm install -g grunt-cli
[root@elk ~]# grunt -version  #检查grunt版本号

4、修改head配置文件

[root@elk ~]#vi /usr/local/elasticsearch-head-master/Gruntfile.js  +95

[root@elk ~]# vim /usr/local/elasticsearch-head-master/_site/app.js +4373

 5、下载head必要的文件

[root@elk ~]# wget https://github.com/Medium/phantomjs/releases/download/v2.1.1/phantomjs-2.1.1-linux-x86_64.tar.bz2
[root@elk ~]# yum -y install bzip2
[root@elk ~]# mkdir /tmp/phantomjs
[root@elk ~]# mv phantomjs-2.1.1-linux-x86_64.tar.bz2 /tmp/phantomjs/
[root@elk ~]# chmod 777 /tmp/phantomjs -R

6、运行head插件

[root@elk ~]# cd /usr/local/elasticsearch-head-master/
[root@elk ~]# npm install 
[root@elk ~]# nohup grunt server &
[root@elk ~]# ss -tnlp

注意如果启动head插件出错,请看下面

npm install 执行错误解析:
npm ERR! code ELIFECYCLE
npm ERR! errno 1
npm ERR! phantomjs-prebuilt@2.1.16 install: `node install.js`
npm ERR! Exit status 1
npm ERR! 
npm ERR! Failed at the phantomjs-prebuilt@2.1.16 install script.
npm ERR! This is probably not a problem with npm. There is likely additional logging output above.

npm ERR! A complete log of this run can be found in:
npm ERR!     /root/.npm/_logs/2021-04-21T09_49_34_207Z-debug.log

解决:
npm install phantomjs-prebuilt@2.1.16 --ignore-scripts  # 具体的版本按照上述报错修改

7、测试访问

192.168.18.140:9100

 访问成功

五、Kibana部署

这里我把kibana部署在第二台es服务器上

1、安装部署Kibana

[root@elk ~]# tar zxf kibana-7.13.2-linux-x86_64.tar.gz -C /usr/local/
[root@elk ~]# echo '
server.port: 5601
server.host: "192.168.18.162"
elasticsearch.hosts: ["http://192.168.18.162:9200"]
kibana.index: ".kibana"
i18n.locale: "zh-CN"
'>>/usr/local/kibana-7.13.2-linux-x86_64/config/kibana.yml

2、启动Kibana服务

[root@elk ~]# cd /usr/local/kibana-7.13.2-linux-x86_64/
[root@elk ~]# ./bin/kibana 

3、查看Kibana端口(5601)

4、安装配置nginx反向代理

(1)配置yum源

[root@elk ~]# rpm -ivh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm

(2)安装ngnx、httpd-tools

[root@elk ~]# yum install -y nginx httpd-tools
注意:httpd-tools用于生成nginx认证访问的用户密码文件

 (3)配置反向代理

[root@elk ~]# vim /etc/nginx/nginx.conf

注:需要修改三处IP地址

server_name: 写本机的ip地址

location Kibana: 写安装Kibana那台服务器的ip地址

location head: 写安装head插件那台服务器的地址 

user  nginx;
worker_processes  4;
error_log  /var/log/nginx/error.log;
pid        /var/run/nginx.pid;
worker_rlimit_nofile 65535;

events {
    worker_connections  65535;
    use epoll;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log  /var/log/nginx/access.log  main;
    server_names_hash_bucket_size 128;
    autoindex on;

    sendfile        on;
    tcp_nopush     on;
    tcp_nodelay on;

    keepalive_timeout  120;
    fastcgi_connect_timeout 300;
    fastcgi_send_timeout 300;
    fastcgi_read_timeout 300;
    fastcgi_buffer_size 64k;
    fastcgi_buffers 4 64k;
    fastcgi_busy_buffers_size 128k;
    fastcgi_temp_file_write_size 128k;

    #gzip模块设置
    gzip on; #开启gzip压缩输出
    gzip_min_length 1k;    #最小压缩文件大小
    gzip_buffers 4 16k;    #压缩缓冲区
    gzip_http_version 1.0;    #压缩版本(默认1.1,前端如果是squid2.5请使用1.0)
    gzip_comp_level 2;    #压缩等级
    gzip_types text/plain application/x-javascript text/css application/xml;    #压缩类型,默认就已经包含textml,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。
    gzip_vary on;
    #开启限制IP连接数的时候需要使用
    #limit_zone crawler $binary_remote_addr 10m;
    #tips:
    #upstream bakend{#定义负载均衡设备的Ip及设备状态}{
    #    ip_hash;
    #    server 127.0.0.1:9090 down;
    #    server 127.0.0.1:8080 weight=2;
    #    server 127.0.0.1:6060;
    #    server 127.0.0.1:7070 backup;
    #}
    #在需要使用负载均衡的server中增加 proxy_pass http://bakend/;
    server {
        listen       80;
        server_name  172.16.244.28;

        #charset koi8-r;

       # access_log  /var/log/nginx/host.access.log  main;
        access_log off;

         location / {  
             auth_basic "Kibana";   #可以是string或off,任意string表示开启认证,off表示关闭认证。
             auth_basic_user_file /etc/nginx/passwd.db;   #指定存储用户名和密码的认证文件。
             proxy_pass http://172.16.244.28:5601;
             proxy_set_header Host $host:5601;  
             proxy_set_header X-Real-IP $remote_addr;  
             proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  
             proxy_set_header Via "nginx";  
                     }
         location /status { 
             stub_status on; #开启网站监控状态 
             access_log /var/log/nginx/kibana_status.log; #监控日志 
             auth_basic "NginxStatus"; } 

         location /head/{
             auth_basic "head";
             auth_basic_user_file /etc/nginx/passwd.db;
             proxy_pass http://172.16.244.25:9100/;
             proxy_set_header Host $host:9100;
             proxy_set_header X-Real-IP $remote_addr;
             proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
             proxy_set_header Via "nginx";
                         }  

        # redirect server error pages to the static page /50x.html
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

(4)配置授权用户和密码

[root@elk ~]# htpasswd -cm /etc/nginx/passwd.db kibana

(5)启动nginx服务

[root@elk ~]# systemctl start nginx

 (6)测试访问

192.168.18.162

六、Kafka部署

1、服务器准备

安装软件主机名IP地址系统版本配置
zookeeper/kafkaKafka1192.168.18.161centos7.5.18041核2G
zookeeper/kafkaKafka2192.168.18.162centos7.5.18041核2G
zookeeper/kafkaKafka3192.168.18.163centos7.5.18041核2G

2、安装配置jdk8

[root@kafka1 ~]# tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/
[root@kafka1 ~]# echo '
JAVA_HOME=/usr/local/jdk1.8.0_121
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME PATH
' >>/etc/profile
[root@kafka1 ~]# source /etc/profile

3、安装配置ZK

[root@kafka1 ~]# tar zxvf /usr/local/package/kafka_2.11-2.0.0.tgz -C /usr/local/
[root@kafka1 ~]# echo '
dataDir=/opt/data/zookeeper/data 
dataLogDir=/opt/data/zookeeper/logs
clientPort=2181 
tickTime=2000 
initLimit=20 
syncLimit=10 
server.1=192.168.18.161:2888:3888             //kafka集群IP:Port .1为id 3处要对应
server.2=192.168.18.162:2888:3888
server.3=192.168.18.163:2888:3888
'> /usr/local/kafka_2.11-2.0.0/config/zookeeper.properties
创建data、log目录
[root@kafka1 ~]# mkdir -p /opt/data/zookeeper/{data,logs}
创建myid文件
[root@kafka1 ~]# echo 1 > /opt/data/zookeeper/data/myid

 4、配置Kafka

[root@kafka1 ~]# echo '
broker.id=1
listeners=PLAINTEXT://10.3.145.41:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/opt/data/kafka/logs
num.partitions=6
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=536870912
log.retention.check.interval.ms=300000
zookeeper.connect=10.3.145.41:2181,10.3.145.42:2181,10.3.145.43:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0
' >/usr/local/kafka_2.11-2.0.0/config/server.properties

 5、启动、验证ZK集群

在三个节点上一次执行

[root@kafka1 ~]# cd /usr/local/kafka_2.11-2.0.0/
[root@kafka1 ~]# nohup bin/zookeeper-server-start.sh config/zookeeper.properties &

(1)查看zk配置

下载nmap
[root@kafka1 ~]# yum install nmap
[root@kafka1 ~]# echo conf | nc 127.0.0.1 2181

(2)查看ZK状态

[root@kafka1 ~]# echo stat |nc 127.0.0.1 2181

(3)查看端口

七、部署logstash

1、安装

 Logstash运行同样依赖jdk,本次为节省资源,故将Logstash安装在了192.168.18.162节点上。

[root@elk ~]# tar zxf /usr/local/package/logstash-7.13.2.tar.gz -C /usr/local/
[root@elk ~]# cd /usr.local/logstash-7.13.2
[root@elk ~]# mkdir etc/conf.d -p
[root@elk ~]# vim etc/conf.d/input.conf
写入:
input {
	stdin {}
}
[root@elk ~]# vim etc/conf.d/output.conf
output {
	stdout {
		codec => rubydebug
	}
    elasticsearch {
      hosts => ["192.168.18.161","192.168.18.162"]
      index => 'logstash-debug-%{+YYYY-MM-dd}'
    }
}
这里的hosts写集群的地址,有几台写几台。
[root@elk ~]# 
[root@elk ~]#
[root@elk ~]#

2、启动Kibana

[root@elk ~]# cd /usr/local/logstash-7.13.2
[root@elk ~]# ./bin/logstash -f etc/conf.d/   #前台运行
[root@elk ~]# nohup bin/logstash -f etc/conf.d/  --config.reload.automatic &   #后台运行

3、查看索引

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值