Centos7--EFK监控nginx日志

主: 192.168.227.170
从: 192.168.227.171
从: 192.168.227.173
三台都安装zookeeper和kafka

在这里插入图片描述

时间同步

在这里插入图片描述

在这里插入图片描述

修改主机名

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

三台都配置/etc/hosts文件

在这里插入图片描述

在这里插入图片描述

测试能否ping通

在这里插入图片描述

1.安装java环境

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

2.安装zookeeper

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在最下面添加三行:
server.1=192.168.227.170:2888:3888
server.2=192.168.227.171:2888:3888
server.3=192.168.227.173:2888:3888

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

启动zookeeper

在这里插入图片描述

查看状态,三台分别为:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

3.安装kafka

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

第一台

在这里插入图片描述

第二台

在这里插入图片描述

第三台

在这里插入图片描述

启动kafka

在这里插入图片描述

查看日志

在这里插入图片描述

在这里插入图片描述

模拟生产者和消费者进行验证
创建
/usr/local/kafka/bin/kafka-topics.sh --create --zookeeper 192.168.227.170:2181 --replication-factor 2 --partitions 3 --topic wg001

在这里插入图片描述

生产者
/usr/local/kafka/bin/kafka-console-producer.sh --broker-list 192.168.227.170:9092 --topic wg001
消费者
/usr/local/kafka/bin/kafka-console-consumer.sh --bootstrap-server 192.168.227.170:9092 --topic wg001 --from-beginning
验证

在这里插入图片描述

在这里插入图片描述

4.安装filebeat
配置filebeat源

在这里插入图片描述

[filebeat-6.x]
name=Elasticsearch repository for 6.x packages
baseurl=https://artifacts.elastic.co/packages/6.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

监控一个日志

在这里插入图片描述

#=========================== Filebeat inputs =============================

filebeat.inputs:

  • type: log

    Change to true to enable this input configuration.

    enabled: true

    Paths that should be crawled and fetched. Glob based paths.

    paths:
    • /var/log/messages

#================================ Outputs =====================================
#-------------------------- Elasticsearch output ------------------------------
output.kafka:

Array of hosts to connect to.

enabled: true
hosts: [“192.168.227.170:9092”,“192.168.227.171:9092”,“192.168.227.173"9092”]
topic: messages

监控两个日志

在这里插入图片描述

在这里插入图片描述

启动filebeat

在这里插入图片描述

消费者

在这里插入图片描述

5.安装Elasticsearch

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

查看elasticsearch日志

在这里插入图片描述

6.安装logstash

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

7.安装kibana

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

访问 http://ip:5601

在这里插入图片描述

在上面的基础上做监控nginx的日志
先安装nginx

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

压测nginx,让nginx产生日志

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

创建nginx主题

在这里插入图片描述

在这里插入图片描述

创建nginx生产者

在这里插入图片描述

去nginx消费者查看是否有数据产生

在这里插入图片描述

去logstash编辑nginx.conf

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

重启logstash,查看logstash日志看是否有报错

在这里插入图片描述

访问 http://ip:5601

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

如果不能创建,使用ab -n 1000 -c 1000 http://ip/index.html压测nginx,是nginx产生日志

在这里插入图片描述

在这里插入图片描述

Nginx匹配正则

在这里插入图片描述

在这里插入图片描述

NGINXACCESS %{IPORHOST:client_ip} (%{USER:ident}|- ) (%{USER:auth}|-) [%{HTTPDATE:timestamp}] “(?:%{WORD:verb} (%{NOTSPACE:request}|-)(?: HTTP/%{NUMBER:http_version})?|-)” %{NUMBER:status} (?:%{NUMBER:bytes}|-) “(?:%{URI:referrer}|-)” “%{GREEDYDATA:agent}”

在这里插入图片描述

开启debug模式测试

在这里插入图片描述

开启logstash,

在这里插入图片描述

在这里插入图片描述

input {
kafka {
bootstrap_servers => [“192.168.116.128:9092,192.168.116.129:9092,192.168.116.130:9092”]
group_id => “logstash”
topics => “nginx”
consumer_threads => 5
}
}

filter {
json {
source => “message”
}
mutate {
remove_field => [“version”,“auth”,“log”,“prospector”,“input”,“offset”,“http_version”,“fields”,“log_topics”,“beat”,“ident”,“source”,“host”]
}
grok {
match => {“message” => “%{NGINXACCESS}” }
}
}

output {
elasticsearch {
hosts => “192.168.116.130:9200”
index => “nginx-%{+YYYY.MM.dd}”
}
#stdout {
# codec => rubydebug
#}
}

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值