ELKR分布式搭建nginx日志分析系统

                          ELKR分布式搭建nginx日志分析系统

一.名词介绍

1、什么是elk

ELK 其实并不是一款软件,而是一整套解决方案,是三个软件产品的首字母缩写,Elasticsearch,Logstash 和 Kibana。这三款软件都是开源软件,通常是配合使用。

2、Elasticsearch

2.1.Elasticsearch介绍

Elasticsearch 是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析。它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引擎,使用 Java 语言编写。

2.2Elasticsearch特点

 (1)实时分析

 (2)分布式实时文件存储,并将每一个字段都编入索引

 (3)文档导向,所有的对象全部是文档

 (4)高可用性,易扩展,支持集群(Cluster)、分片和复制(Shards和 Replicas)

 (5)接口友好,支持 JSON

3、Logstash

3.1Logstash介绍

Logstash 是一个具有实时渠道能力的数据收集引擎。

3.2Logstash特点

(1)几乎可以访问任何数据

(2)可以和多种外部应用结合

(3)支持弹性扩展

3.3Logstash它组件

(1)Shipper-发送日志数据

(2)Broker-收集数据,缺省内置 Redis

(3)Indexer-数据写入

4、Kibana

4.1Kibana介绍

Kibana 是一款基于 Apache 开源协议,使用JavaScript 语言编写,为 Elasticsearch 提供分析和可视化的 Web 平台。它可以在 Elasticsearch 的索引中查找,交互数据,并生成各种维度的表图。


二.环境介绍


环境介绍:Ubuntu 14.04

elasticsearch-5.2.2.deb  kibana-5.2.2-amd64.deb logstash_2.1.3-1_all.deb  java1.8 redis2.8.4

2.1ELK 组件的作用

Elasticsearch 抓取日志分析

Logstash 日志格式处理

Kibana 前端数据可视化展示

2.2 ELK 

ELK(R) = Elasticsearch + Logstash + Kibana (+ Redis) 是一套完整的工业级日志分析工具。

拓扑图:

wKioL1mDz8yRQNtSAAEJykmbaoQ964.png


三.ELK安装

3.1 安装

3.1.1 系统环境检查

要安装 ELK(R),首先需要检查自身系统环境:

检查当前系统的版本。

root@6ae60c614623:/home/hao# cat /etc/issue

Ubuntu 14.04.5 LTS \n \l

其次,Elasticsearch 还依赖 Java 的环境,因此还需要确保 Java 环境:

wKiom1mD0MSDUYTdAAAVyyUB5Bc413.png

root@6ae60c614623:/home/hao# java -version
java version "1.8.0_101"
Java(TM) SE Runtime Environment (build 1.8.0_101-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.101-b13, mixed mode)

此外,正如前面所说,Redis 自身并不属于 ELK 技术栈,而是 Logstash 具备的一个插件,属于 Logstash 的依赖。所以我们还要检查 Redis 环境。

wKiom1mD0M3BL2kYAAAbd-1VCcw937.png

root@6ae60c614623:/home/hao# redis-server -v
Redis server v=2.8.4 sha=00000000:0 malloc=jemalloc-3.4.1 bits=64 build=a44a05d76f06a5d9
如果没有启动,则可以
root@6ae60c614623:/home/hao# netstat -antulp | grep 6379
root@6ae60c614623:/home/hao# service redis-server start
Starting redis-server: redis-server.

关闭 redis,最好的办法就是直接杀掉 redis 的所在进程:

root@6ae60c614623:/home/hao# ps -u root -o pid,rss,command | grep redis
  363   648 grep --color=auto redisThen
kill -9 the_pid

wKiom1mD0RvSF8kuAAAV5j6I7fU637.png

3.1.2用deb包的方式下载和安装

可以使用wget命令下载,这些包可以官网去下载,但是非常的慢,dpkg -i安装,就可以不用管下面的安装方法了

#下载
wget http://labfile.oss.aliyuncs.com/courses/562/elasticsearch-5.2.2.deb
wget http://labfile.oss.aliyuncs.com/courses/562/kibana-5.2.2-amd64.deb
wget http://labfile.oss.aliyuncs.com/courses/562/logstash_2.1.3-1_all.deb
#安装
dpkg -i elasticsearch-5.2.2.deb
dpkg -i kibana-5.2.2-amd64.deb
dpkg -i logstash_2.1.3-1_all.deb


wKiom1mD0WjDZoHtAABCBeN8GmM215.png

wKioL1mD0gXgBKc9AABvD2X2POs805.png

3.1.3用apt-get的方式下载安装

1.安装 Elasticsearch

无论是 ELK 中的哪个部分,他们都还在快速迭代当中,所以我们要竟可能的选择最新的版本。

安装有很多方式让我们选择,比如自行下载源码安装,比如向软件包源中添加软件源使用 apt-get 来安装。

无论如何,我们都推荐使用 apt-get 进行安装,因为这种方式的安装便于管理和维护。

首先我们需要添加 Key:

wget -qO - https://packages.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -

然后添加官方的安装源:

echo "deb https://packages.elastic.co/elasticsearch/2.x/debian stable main" | sudo tee -a /etc/apt/sources.list.d/elasticsearch-2.x.list

wKioL1mD0hrRY5c5AAArd3ogEuo625.png

root@6ae60c614623:/home/hao# sudo apt-get update
Ign http://mirrors.aliyuncs.com trusty InRelease
Get:1 http://mirrors.aliyuncs.com trusty-updates InRelease [65.9 kB]
Get:2 http://mirrors.aliyuncs.com trusty-security InRelease [65.9 kB]
Hit http://mirrors.aliyuncs.com trusty Release.gpg   
Hit http://mirrors.aliyuncs.com trusty Release       
Get:3 http://mirrors.aliyuncs.com trusty-updates/main Sources [496 kB]
Get:4 http://mirrors.aliyuncs.com trusty-updates/restricted Sources [6470 B]
Get:5 http://mirrors.aliyuncs.com trusty-updates/universe Sources [235 kB]
Get:6 http://mirrors.aliyuncs.com trusty-updates/main amd64 Packages [1249 kB]
Get:7 https://packages.elastic.co stable InRelease    
Ign https://packages.elastic.co stable InRelease
Get:8 http://mirrors.aliyuncs.com trusty-updates/restricted amd64 Packages [21.2 kB]
Get:9 http://mirrors.aliyuncs.com trusty-updates/universe amd64 Packages [541 kB]
Get:10 https://packages.elastic.co stable Release      
Get:11 http://mirrors.aliyuncs.com trusty-security/main Sources [176 kB]       
Get:12 http://mirrors.aliyuncs.com trusty-security/restricted Sources [5068 B]
Get:13 http://mirrors.aliyuncs.com trusty-security/universe Sources [72.1 kB]
Get:14 https://packages.elastic.co stable/main amd64 Packages
Get:15 http://mirrors.aliyuncs.com trusty-security/main amd64 Packages [799 kB]
Get:16 http://mirrors.aliyuncs.com trusty-security/restricted amd64 Packages [17.9 kB]
Get:17 http://mirrors.aliyuncs.com trusty-security/universe amd64 Packages [228 kB]
Hit http://mirrors.aliyuncs.com trusty/main Sources     
Hit http://mirrors.aliyuncs.com trusty/restricted Sources
Hit http://mirrors.aliyuncs.com trusty/universe Sources
Hit http://mirrors.aliyuncs.com trusty/multiverse Sources
Hit http://mirrors.aliyuncs.com trusty/main amd64 Packages
Hit http://mirrors.aliyuncs.com trusty/restricted amd64 Packages
Hit http://mirrors.aliyuncs.com trusty/universe amd64 Packages
Hit http://mirrors.aliyuncs.com trusty/multiverse amd64 Packages
Fetched 3985 kB in 15s (265 kB/s)                                              
Reading package lists... Done
W: Size of file /var/lib/apt/lists/mirrors.aliyuncs.com_ubuntu_dists_trusty-updates_restricted_binary-amd64_Packages.gz is not what the server reported 21216 23469
W: Size of file /var/lib/apt/lists/mirrors.aliyuncs.com_ubuntu_dists_trusty-security_restricted_binary-amd64_Packages.gz is not what the server reported 17859 20228

接下来就可以开始安装了:

sudo apt-get install elasticsearch

安装完成后,我们就可以运行 Elasticsearch 服务了:

sudo service elasticsearch start


2.安装 logstash

echo "deb https://packages.elastic.co/logstash/2.3/debian stable main" | sudo tee -a /etc/apt/sources.list

同样的方法:

sudo apt-get update

安装:

sudo apt-get install logstash

运行服务:

sudo service logstash start


3.安装 Kibana

同理,在 /etc/apt/sources.list 中添加 Kibana 的安装源:

echo "deb http://packages.elastic.co/kibana/4.5/debian stable main" | sudo tee -a /etc/apt/sources.list

更新:

sudo apt-get update

安装:

sud apt-get install kibana

运行服务:

sudo service kibana start


报错:

root@6ae60c614623:/home/hao# sudo service kibana start

kibana started

root@6ae60c614623:/home/hao# sudo service logstash start

/etc/init.d/logstash: 68: ulimit: error setting limit (Operation not permitted)

logstash started.

root@6ae60c614623:/home/hao# sudo service elasticsearch start

 * Starting Elasticsearch Server                                                                              /etc/init.d/elasticsearch: line 139: ulimit: open files: cannot modify limit: Operation not permitted

sysctl: setting key "vm.max_map_count": Read-only file system

在启动Logstash 和 Elasticsearch 的时候,有这样几个警告:

Elasticsearch,『ulimit和只读文件系统错误』

Logstash,『ulimit 错误』

第一步:解决 Elasticsearch:

sudo vim /etc/init.d/elasticsearch

在 vim 中使用 :set nu 来开启行号,注释掉 138行至 148行:

其实只需要注释掉报错的部分就好了,可能版本有些不同,所以行号不一定一样,主要看注释掉的内容

wKiom1mD0xmhrjdZAAAzRC6b-ok061.png

重启服务:

sudo service elasticsearch stop

sudo service elasticsearch start


第二步:解决 Logstash:

同理,注释掉 /etc/init.d/logstash 中 68 行 和 69 行的内容:

wKiom1mD06LDSVmiAAAwrshTWT4331.png

并重启服务:

sudo service logstash stop

sudo service logstash start


这时候访问 localhost:5601 就能够看到 Kibana 已经在运行,但现在还不能正式使用:

wKioL1mD09CS7bjKAADh2-D7zGg409.png

四.部署日志

既然我们要构建日志分析系统,日志是必不可少的,我们所熟知的提供 Web 服务的工具,有 apache 和 nginx。我们这里以 nginx 为例来部署产生日志的环境。

首先我们需要安装 nginx 环境,同样只需要使用 apt-get 即可

sudo service nginx start

wKioL1mD1E_BCfVhAAE729xslns352.png

我们需要配置 nginx 来获得用户访问的日志:

wKioL1mD1G6QgpTfAAAwTE4Deuw403.png

而nginx 的配置文件位于:

vi /etc/nginx/sites-available/default

下面修改将nginx 的配置添加:

access_log /home/hao/Code/elk/access.log;

注意, 如果这个路径不存在,Nginx 服务会启动失败,这是权限原因造成的,最好的解决方法就是:root@6ae60c614623:/etc/nginx/sites-available# mkdir -p /home/hao/Code/elk/

root@6ae60c614623:/etc/nginx/sites-available# touch /home/hao/Code/elk/access.log


这时候重启 nginx 服务:

sudo service nginx stop

sudo service nginx start

然后在浏览器中访问:

http://localhost/

这时候我们可以看到刚才配置的 nginx 日志有新纪录了。每次访问这里就会多一条记录出来

wKioL1mD1N6AhrozAAAdjw4MYPw358.png


# 检查服务状态

sudo service redis-server status
sudo service elasticsearch status
sudo service logstash status
sudo service kibana status

wKiom1mD1QmT4wB1AAAuGB5FcSA613.png


五.logstash和elasticsearch配置

Logstash 配置基础

要确保每个服务都开启状态

Logstash 是打通日志文件和 Elasticsearch 之间的一个枢纽。和各种服务一样,Logstash 也有着自己的一套配置规则。

Logstash 的配置主要分为三大部分:input, filter, output。

 Logstash 的主要命令都安装在了 /opt/logstash/bin 目录下,在这个目录下中,我们先执行:

sudo ./logstash -e 'input{stdin{}}output{stdout{codec=>rubydebug}}'

Logstash 的 -e 参数为立即执行的意思

这时,终端会等待输入,我们可以简单的输入 Hello Logstash! 这时会看到有如下输出:

wKiom1mD1YzB6ID9AAAn-5NDISk676.png

这说明 Logstash 已经顺利工作了。

这里可能等待的比较久,希望大家能够耐心一点,使用 ctrl+c 关闭当前 Logstash 执行的配置。

配置语法

我们先来观察刚才命令中的字符串:

'input{stdin{}}output{stdout{codec=>rubydebug}}'

将其格式化后:

input {

    stdin {}             

}

output {

    stdout {

        codec => rubydebug

    }

}

stdin {} 就是从标准输入

stdout {} 就是从标准输出

在这个字符串中,其实定义了 Logstash 的两个行为input和output。

在 input 中,我们定义了一个标准输入,由于什么都没有,所以 Logstash 会从终端的标准输入中读取字符串,这也是为什么刚才在输入完命令后会出现等待输入的情况。

在 output 中,我们定义了一个标准输出,也就是说 Logstash 在处理完后会将结果从标准输出(终端)中输出,而 codec 字段,则说明了输出会遵循什么样的格式,这里定义的 codec 为 rubydebug,所以我们刚才看到了一套标准的输出格式。


有了对 Logstash 配置语法的基本认识,我们可以开始配置 从 Log 到 Logstash 到 Elasticsearch 的配置文件了。

配置 Log->Logstash->Elasticsearch

由于 Logstash 的配置很长,所以我们不太可能在一行命令中吧整个配置写好,所以我们先在 /etc/logstash/conf.d/logstash-shipper.conf 创建 Logstash 的配置文件:

我们现在要将日志文件作为输入,将日志分析系统elasticsearch作为输出

wKioL1mD1bnjPPdDAAAdkoGr_bg020.png

input {
  stdin {}
  file {
    path => "/home/hao/Code/elk/access.log"
    start_position => beginning
    codec =>  multiline {
      'negate' => true
      'pattern' => '^\d'
      'what' => 'previous'
    }
  }
}
output {
    stdout {
        codec => rubydebug
    }
    elasticsearch {
        hosts=>["localhost:9200"]
        index=>"logstash-%{+YYYY.MM.dd}"
    }
  }

在这份配置中,我们加入了文件输入的配置,加入了elaticsearch分析系统的输入。

我们将 input 定义加入 file (文件)输入,并设置 start_position 从第一行开始,保证能够导入旧数据。

输出,此种举动一方面可以方便我们日后进行调试,另一方面可以将其作为 Logstash 的日志进行输出。

而 elasticsearch 则给出了向 elasticsearch 输入数据的申明。

配置完成后,我们可以使用 -t 参数来测试配置脚本是否配置正确:

/opt/logstash/bin/logstash -t -f /etc/logstash/conf.d/logstash-shipper.conf

wKioL1mD1nLh8f1hAAARaBRdXmQ987.png

但是一旦我们 ctrl+c 便会停止执行,Logstash 不会再向 elasticsearch 传送数据。

这时,我们需要将其挂在后台执行:

nohup /opt/logstash/bin/logstash -t -f /etc/logstash/conf.d/logstash-shipper.conf &


六.Kibana 可视化工具

我们成功的将日志数据写入了 Elasticsearch,配置Kibana 使得我们能够在前端页面上查看并分析这些数据。

创建 Kibana 索引模式

我们已经将 Logstash 进程跑在了后台,现在我们打开浏览器,访问 localhost:5601 便能看到 Kibana 的界面和以往有所不同,Kibana 提示我们可以创建索引模式,这里我们不做过多干涉,直接以时间戳创建索引模式:

wKioL1mD1uTyRKtxAANqm1bt1F0057.png

看到 Kibana 为我们创建了 18 个字段(Fields)

wKioL1mD1uWwHUbiAAIOmJ-f2CA656.png

我们点击顶部的 Discover ,便能来到 Kibana 的全局搜索界面,并能够看到在选定的时段内有多少记录被写入 Elasticsearch:

wKioL1mD1uai_3cOAALVU9kZKX4112.png

高级查询

在Kibana 中如果要进行更加精确的查询,则需要使用 Lucene。

例如,我们要在某个字段中搜索某个字符串是否存在。首先我们在终端中构造数据,在 一个 sudo /opt/logstash/bin/logstash -f /etc/logstash/conf.d/logstash-shipper.conf 进程下,依次输入 hello world、how do you do、what's wrong with you,chenhao。

这时候 Logstash 会输出四条记录:

wKiom1mD103QUJacAAAQU15L_lc924.png

wKioL1mD102wllgZAABGdPof_Z0845.png

wKiom1mD107SVxVuAAJ8LHs0c9s192.png

下面我们准备搜索在所有的记录中,出现单词 you 的记录。

这时我们可以输入:message: *you*。这里的 message:是指明要搜索的字段,you是要搜索的字符,* 是通配符。

这时我们可以看到,刚才插入的 what's worng with you 和 how do you do 这两个满足条件的结果均已被高亮在了下方:

wKiom1mD13nRWsoNAAIduhNSsMg355.png

我们搞定了 Kibana 的可视化部分。

将启用 Redis 作为缓存,搭建的分布式 ELK+Redis 日志环境


七.用redis部署分布式ELK

署环境简化为了 nginx Log->Logstash->Elasticsearch->Kibana

5.1 Logstash Redis 插件及其配置

Redis 本身并不属于 ELK 技术栈里的一份子,而是作为一个插件存在于 ELK 技术栈中。Redis 提供了一个很好的缓冲区,它能够很好的帮助我们在主节点上屏蔽掉多个从节点之间不同日志文件的差异,负责管理日志端(从节点)的人可以专注于向 Redis 里生产数据,而负责数据分析聚合端的人则可以专注于从 Redis 内消费数据,达到分层目的。

幸运的是 Redis 插件在最新版的 Logstash 中已经被集成,我们只需要简单的配置 Logstash 的相关文件即可。

首先我们要配置具备日志节点的 Logstash Shipper 的配置文件:

input {
  stdin { }
  file {
    path => "/home/hao/Code/elk/access.log"
    start_position => beginning
    codec =>  multiline {
      'negate' => true
      'pattern' => '^\d'
      'what' => 'previous'
    }
  }
}
output {
  stdout {
    codec => rubydebug
  }
  redis {
    host => "localhost"
    data_type => "list"
    key => "logstash"
  }
}

这里配置了 output 的相关逻辑,将 output 指定到 redis 中,输出的数据类型为 list, redis 数据库中的 key 为 logstash。


3.2 配置Logstash Indexer

新建一个配置文件,它的输入是redis数据库,输出是elasticsearch分析系统

然后我们再配置 Logstash Indexer:

input { 
  redis {
    host => "localhost"
    type => "redis"
    data_type => "list"
    key => "logstash"
  }
}
output { 
  stdout {
    codec => rubydebug
  } 
  elasticsearch {
    hosts=>["localhost:9200"]
    index=>"logstash-%{+YYYY.MM.dd}"
  }
}


当 Shipper 产生新的数据时候(输入hello chenhao),可以看到 Indexer 也会产生新的数据:

sudo /opt/logstash/bin/logstash -f /etc/logstash/conf.d/logstash-shipper.conf

sudo /opt/logstash/bin/logstash -f /etc/logstash/conf.d/logstash-indexer.conf

wKiom1mD2UmDKdVYAABwmpMBfeM583.png当这两个配置文件运行在不同服务器上时,便能做到真正的分布式了,唯一需要修改的地方就是 redis 的 host 字段值,其中 Logstash Shipper 中的地址应该填写 Logstash Indexer 所在地址,而 Logstash Indexer 中的 redis host 字段不需要修改,因为 redis 和 Loststash Indexer 运行在同一台机器上。

八.总结

收集nginx日志,集中展示。

不少人对 ELK 的第一印象,容易觉得它这个工具组合似乎挺难上手的,错!只需动手试试就知道啦!

目标分解:

1)熟悉 logstash 的安装和基本操作

2)熟悉 elasticsearch 的安装和基本操作,然后结合 logstash 使用

3)熟悉 kibana 的安装和基本操作,然后结合 elasticsearch 使用


Elasticsearch 是整个日志分析系统的核心,它负责对日志数据进行分析、索引等重要工作;Logstash 则主要用于对日志数据进行初步的过滤和筛选,例如,Logstash 可以将拥有日志数据的从节点(Slave Node)服务器内的日志数据发送到 Elasticsearch 的主服务器。

Kibana 则是为了让 Elasticsearch 更好的与用户进行交互而设计的一个 Web 前端工具,具备强大的数据可视化功能。Redis 本身并不属于 ELK 技术栈里的一份子,而是作为一个插件存在于 ELK 技术栈中。

Redis 提供了一个很好的缓冲区,它能够很好的帮助我们在主节点上屏蔽掉多个从节点之间不同日志文件的差异,负责管理日志端(从节点)的人可以专注于向 Redis 里生产数据,而负责数据分析聚合端的人则可以专注于从 Redis 内消费数据,达到分层目的。


九.报错解析

1.Kibana Unable to connect to Elasticsearch

若是此处显示的是警告没有看到上图所示的画面的话,注意看下方警告中访问的 elasticsearch 的地址与端口是否正确,因为 elasticsearch 默认是绑定在本地 localhost 端口上,所以地址应该是 localhost:9200 或者是 127.0.0.1。若不是可以修改一下 /etc/kibana/kibana.yml 中 elasticsearch 对应的地址与端口,然后重启试试。

2.max virtual memory areas vm.max_map_count[65530]is too low

wKioL1mD2zrRKmQlAABIVbEF36E634.png

vi /etc/security/limits.conf

添加如下内容:

* soft nofile 65536

* hard nofile 131072

* soft nproc 2048

* hard nproc 4096

vi /etc/sysctl.conf  #添加一条

vm.max_map_count=655360

sysctl -p #执行

3. logstash Configuration Contains a Syntax Error

logstash 语法错误,这个问题一般各种各样的。主要是logstash配置文件不对导致的。

解决方法:

在启动logstash前,先检查下logstash配置文件是否有问题,可通过下面命令检测:

/opt/logstash/bin/logstash --configtest -f /etc/logstash/conf.d/

后面指定你自己的配置文件。


十.参考文档

Logstash Redis 配置参考

https://www.elastic.co/guide/en/logstash/current/plugins-inputs-redis.html

Kibana 用户指南

https://www.elastic.co/guide/en/kibana/current/index.html

配置 Logstash

https://www.elastic.co/guide/en/logstash/current/configuration.html


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值