小白实操ELK环境部署+监控nginx日志

简介:

本次部署应用的是filebeats(客户端),logstash+elasticsearch+kibana(服务端)架构

原理及组件介绍请看我其他文章:https://blog.csdn.net/weixin_39845407/article/details/81479729

业务请求到达nginx-server机器上的Nginx; Nginx响应请求,并在access.log文件中增加访问记录; FileBeat搜集新增的日志,通过LogStash的5044端口上传日志; LogStash将日志信息通过本机的9200端口传入到ElasticSerach; 搜索日志的用户通过浏览器访问Kibana,服务器端口是5601; Kibana通过9200端口访问ElasticSerach;

实验环境:

本次部署的是单点ELK这边只用了两台机器(centos-7.1)

ELK服务端:192.168.137.128

nginx客户端:192.168.137.131

准备:

关闭防火墙

systemctl stop firewalld

或者开放对应端口:https://blog.csdn.net/weixin_39845407/article/details/81510368

下载并解压到/usr/local/

mkdir /elk;cd /elk
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.2.3.tar.gz
wget https://artifacts.elastic.co/downloads/logstash/logstash-6.2.3.tar.gz
wget https://artifacts.elastic.co/downloads/kibana/kibana-6.2.3-linux-x86_64.tar.gz
tar xf kibana-6.2.3-linux-x86_64.tar.gz -C /usr/local/
tar xf elasticsearch-6.2.3.tar.gz -C /usr/local
tar xf logstash-6.2.3.tar.gz -C /usr/local

安装java1.8

yum -y install java-1.8*

# 也可用源码安装看心情即可

配置elasticsearch

新建elasticsearch用户(elasticsearch用普通用户启动)并启动

useradd elasticsearch
chown -R elasticsearch.elasticsearch /usr/local/elasticsearch-6.2.3/
su - elasticsearch
cd /usr/local/elasticsearch-6.2.3/
./bin/elasticsearch -d

# 查看进程如果没有启动成功的话,可以查看日志/usr/local/elasticsearch-6.2.3/logs/elasticsearch.log

测试是否可以正常访问

# 也可以网页访问

配置logstash

收集nginx日志之使用grok过滤插件解析日志

grok作为一个logstash的过滤插件,支持根据模式解析文本日志行,拆成字段。

  • nginx日志的配置:
log_format  main  '$remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"';
  • logstash中grok的正则(添加在vendor/bundle/jruby/2.3.0/gems/logstash-patterns-core-4.1.2/patterns/grok-patterns文件中)为:
WZ ([^ ]*)
NGINXACCESS %{IP:remote_ip} \- \- \[%{HTTPDATE:timestamp}\] "%{WORD:method} %{WZ:request} HTTP/%{NUMBER:httpversion}" %{NUMBER:status} %{NUMBER:bytes} %{QS:referer} %{QS:agent} %{QS:xforward}

创建logstash配置文件

cat /usr/local/logstash-6.2.3/default.conf
input {
    beats {
        port => "5044"
    }
}
# 数据过滤
filter {
    grok {
        match => { "message" => "%{NGINXACCESS}" }
    }
    geoip {
        # nginx客户端ip
        source => "192.168.137.131"
    }
}
# 输出配置为本机的9200端口,这是ElasticSerach服务的监听端口
output {
    elasticsearch {
        hosts => ["127.0.0.1:9200"]
    }
}

1.后台启动logstash:nohup bin/logstash -f default.conf &

2.查看启动日志:tailf nohup.out

3.查看端口是否启动:netstat -napt|grep 5044

配置kibana

打开Kibana的配置文件/usr/local/kibana-6.2.3-linux-x86_64/config/kibana.yml,找到下面这行并修改:+

#server.host: "localhost"
修改为
server.host: "192.168.137.128"

这样其他电脑就能用浏览器访问Kibana的服务了;

2. 进入Kibana的目录:cd /usr/local/kibana-6.2.3-linux-x86_64

3. 执行启动命令:nohup bin/kibana &

4. 查看启动日志:tail -f nohup.out

5.查看端口是否启动:netstat -napt|grep 5601

测试:

在浏览器访问192.168.137.128:5601

# 到此。ELK部署完成

nginx客户端配置

下载nginx并解压到/usr/local/

wget http://nginx.org/en/download/nginx-1.12.2.tar.gz
tar xf ./nginx-1.12.2.tar.gz -C /usr/local/

安装

# 安装依赖包
yum -y install gcc pcre pcre-devel zlib zlib-devel openssl openssl-devel
# 编译安装
./configure --prefix=/usr/local/nginx --sbin-path=/usr/bin/nginx
make && make install

修改日志格式

vim /usr/local/nginx/conf/nginx.conf
# 写入以下内容
log_format  main  '$remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"';

下载filebeat并解压到/usr/local/

wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.2.3-linux-x86_64.tar.gz
tar xf ./filebeat-6.2.3-linux-x86_64.tar.gz -C /usr/local/

打开文件/usr/local/filebeat-6.2.3-linux-x86_64/filebeat.yml,找到如下图的位置:

改成如下:

找到如下图位置:

改为如下:

找到如下图位置:

改为如下:

后台启动filebeat:nohup ./filebeat -e -c filebeat.yml &

查看日志:tailf nohup.out

创建Index Patterns

通过浏览器多访问几次nginx服务,这样能多制造一些访问日志,访问地址:https://192.168.137.131 

访问Kibana:https://192.168.137.128:5601,点击左上角的Discover,如下图红框,可以看到访问日志已经被ELK搜集了:

è¿éåå¾çæè¿°

如下图,输入logstash-*,点击”Next step”:

这里写图片描述如下图,选择Time Filter,再点击“Create index pattern”:

这里写图片描述

页面提示创建Index Patterns成功:

这里写图片描述

点击左上角的”Discover”按钮,即可看到最新的日志信息,如下图:

这里写图片描述

 

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值