ELK日志分析平台

1.elasticsearch实战

(1)elasticsearch简介

  • Elasticsearch 是一个开源的分布式搜索分析引擎,建立在一个全文搜索引擎库 Apache Lucene基础之上。
  • Elasticsearch不仅仅是 Lucene,并且也不仅仅只是一个全文搜索引擎:
  • 一个分布式的实时文档存储,每个字段 可以被索引与搜索
  • 一个分布式实时分析搜索引擎
  • 能胜任上百个服务节点的扩展,并支持 PB 级别的结构化或者非结构化数据

基础模块

  • cluster:管理集群状态,维护集群层面的配置信息。
  • alloction:封装了分片分配相关的功能和策略。
  • discovery:发现集群中的节点,以及选举主节点。
  • gateway:对收到master广播下来的集群状态数据的持久化存储。
  • indices:管理全局级的索引设置。
  • http:允许通过JSON over HTTP的方式访问ES的API。
  • transport:用于集群内节点之间的内部通信。
  • engine:封装了对Lucene的操作及translog的调用。
  • elasticsearch应用场景:
    • 信息检索
    • 日志分析
    • 业务数据分析
    • 数据库加速
    • 运维指标监控
  • 官网:https://www.elastic.co/cn/

(2) elasticsearch安装与配置

实验环境
三台主机:
server4: ----> 192.168.174.50
server5: ----> 192.168.174.60
server6: ----> 192.168.174.70


  • 软件下载:
    https://elasticsearch.cn/download/
  • 安装软件
[root@server ~]# yum install -y elasticsearch-7.6.1-x86_64.rpm

在这里插入图片描述

  • 设置服务自启
[root@server ~]# systemctl daemon-reload
[root@server ~]# systemctl enable --now elasticsearch.service
  • 修改配置文件
vim /etc/elasticsearch/elasticsearch.yml
编辑:
cluster.name: my-es    #集群名称((自定义)
node.name: server4     #主机名需要解析
path.data: /var/lib/elasticsearch     #数据目录
path.logs: /var/log/elasticsearch     #日志目录
bootstrap.memory_lock: true     #锁定内存分配(要求主机内存大于2G)
network.host: 192.168.174.50     #主机ip
discovery.seed_hosts: ["server4", "server5","server6"]    #节点主机名称
cluster.initial_master_nodes: ["server4", "server5","server6"]     #主节点主机名称
  • 修改系统限制
vim /etc/security/limits.conf
写入:
elasticsearch soft memlock unlimited
elasticsearch hard memlock unlimited
elasticsearch - nofile 65536
elasticsearch - nproc 4096
vim jvm.options
-Xms1g
-Xmx1g

Xmx设置不超过物理RAM的50%,以确保有足够的物理RAM留给内核文件
系统缓存。但不要超过32G。
  • 修改systemd启动文件
vim /usr/lib/systemd/system/elasticsearch.service
[Service] #在service语句块下添加
LimitMEMLOCK=infinity

systemctl daemon-reload
systemctl start elasticsearch

  • 在浏览器页面访问:
    http://192.168.174.50:9200
    在这里插入图片描述

(3) elasticsearch插件安装

  • 下载elasticsearch-head插件
 wget https://github.com/mobz/elasticsearch-head/archive/master.zip
unzip elasticsearch-head-master.zip
  • head插件本质上是一个nodejs的工程,因此需要安装node:
wget 
https://mirrors.tuna.tsinghua.edu.cn/nodesource/rpm_9.x/el/7/x86_64/
nodejs-9.11.2-1nodesource.x86_64.rpm
rpm -ivh nodejs-9.11.2-1nodesource.x86_64.rpm
npm -v     进入该系统源
  • 更换npm源安装
cd elasticsearch-head-master/
npm install --registry=https://registry.npm.taobao.org

在这里插入图片描述

  • 修改ES主机ip和端口
vim _site/app.js
编辑:
"http://172.25.0.7:9200"
  • 启动head插件并在后台运行
npm run start &

在这里插入图片描述

  • 修改ES跨域主持
 vim /etc/elasticsearch/elasticsearch.yml
 写入;
http.cors.enabled: true         # 是否支持跨域
http.cors.allow-origin: "*"     # *表示支持所有域名
  • 重启ES服务
systemctl restart elasticsearch.service

  • 在浏览器上访问head插件服务

http:/192.168.174.50:9100
在这里插入图片描述


  • 创建索引
    在这里插入图片描述
  • 查看索引信息
    在这里插入图片描述
    在这里插入图片描述

2.elasticsearch分布式部署

以相同方法再安装两个ES节点,配置如下:

  • 节点1:
# grep -v ^# /etc/elasticsearch/elasticsearch.yml 
cluster.name: my-es
node.name: server13
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
bootstrap.memory_lock: true
network.host: 172.25.0.13
http.port: 9200
http.cors.enabled: true
http.cors.allow-origin: "*"
discovery.seed_hosts: ["server13", "server14", "server15"]
  • 节点2:
# grep -v ^# /etc/elasticsearch/elasticsearch.yml 
cluster.name: my-es
node.name: server14
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
bootstrap.memory_lock: true
network.host: 172.25.0.14
http.port: 9200
discovery.seed_hosts: ["server13", "server14", "server15"]
  • 节点3:
# grep -v ^# /etc/elasticsearch/elasticsearch.yml 
cluster.name: my-es
node.name: server15
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
bootstrap.memory_lock: true
network.host: 172.25.0.15
http.port: 9200
discovery.seed_hosts: ["server13", "server14", "server15"]
  • 查看ES集群状态
    在这里插入图片描述

3.elasticsearch节点角色

  • Master:
    • 主要负责集群中索引的创建、删除以及数据的Rebalance等操作。
    Master不负责数据的索引和检索,所以负载较轻。当Master节点失联或
    者挂掉的时候,ES集群会自动从其他Master节点选举出一个Leader。
  • Data Node:
    • 主要负责集群中数据的索引和检索,一般压力比较大。
  • Coordinating Node:
    • 原来的Client node的,主要功能是来分发请求和合并结果的。所有节点
    默认就是Coordinating node,且不能关闭该属性。
  • Ingest Node:
    • 专门对索引的文档做预处理

4.elasticsearch节点优化

  • 在生产环境下,如果不修改elasticsearch节点的角色信息,在高数
    据量,高并发的场景下集群容易出现脑裂等问题。
  • 默认情况下,elasticsearch集群中每个节点都有成为主节点的资格,
    也都存储数据,还可以提供查询服务。
  • 节点角色是由以下属性控制:
    • node.master: false|true
    • node.data: true|false
    • node.ingest: true|false
    • search.remote.connect: true|false
    默认情况下这些属性的值都是true。

  • node.master:这个属性表示节点是否具有成为主节点的资格
    注意:此属性的值为true,并不意味着这个节点就是主节点。
    因为真正的主节点,是由多个具有主节点资格的节点进行选
    举产生的。
  • node.data:这个属性表示节点是否存储数据。
  • node.ingest: 是否对文档进行预处理。
  • search.remote.connect:是否禁用跨集群查询

  • 第一种组合:(默认)
    • node.master: true
    • node.data: true
    • node.ingest: true
    • search.remote.connect: true
    这种组合表示这个节点即有成为主节点的资格,又存储数据。
    如果某个节点被选举成为了真正的主节点,那么他还要存储数据,这样对于
    这个节点的压力就比较大了。
    测试环境下这样做没问题,但实际工作中不建议这样设置。

  • 第二种组合:(Data node)
    • node.master: false
    • node.data: true
    • node.ingest: false
    • search.remote.connect: false
    这种组合表示这个节点没有成为主节点的资格,也就不参与选举,只会存储
    数据。
    这个节点称为data(数据)节点。在集群中需要单独设置几个这样的节点负责存储数据。后期提供存储和查询服务。

  • 第三种组合:(master node)
    • node.master: true
    • node.data: false
    • node.ingest: false
    • search.remote.connect: false
    这种组合表示这个节点不会存储数据,有成为主节点的资格,可以参与选举,
    有可能成为真正的主节点。
    这个节点我们称为master节点。

  • 第四种组合:(Coordinating Node)
    • node.master: false
    • node.data: false
    • node.ingest: false
    • search.remote.connect: false
    这种组合表示这个节点即不会成为主节点,也不会存储数据,
    这个节点的意义是作为一个协调节点,主要是针对海量请求的时候可以进行负载均衡。

  • 第五种组合:(Ingest Node)
    • node.master: false
    • node.data: false
    • node.ingest: true
    • search.remote.connect: false
    这种组合表示这个节点即不会成为主节点,也不会存储数据,
    这个节点的意义是ingest节点,对索引的文档做预处理。

  • 生产集群中可以对这些节点的职责进行划分
    • 建议集群中设置3台以上的节点作为master节点,这些节点只负责成为
    主节点,维护整个集群的状态。
    • 再根据数据量设置一批data节点,这些节点只负责存储数据,后期提供
    建立索引和查询索引的服务,这样的话如果用户请求比较频繁,这些节点
    的压力也会比较大。
    • 所以在集群中建议再设置一批协调节点,这些节点只负责处理用户请求,实现请求转发,负载均衡等功能。
  • 节点需求
    • master节点:普通服务器即可(CPU、内存 消耗一般)
    • data节点:主要消耗磁盘、内存。
    • path.data: data1,data2,data3
    这样的配置可能会导致数据写入不均匀,建议只指定一个数据路径,磁盘可以使
    用raid0阵列,而不需要成本高的ssd。
    • Coordinating节点:对cpu、memory要求较高。

  • 调整后的ES集群状态
    在这里插入图片描述

5.logstash数据采集

(1) logstash简介

  • Logstash是一个开源的服务器端数据处理管道。
  • logstash拥有200多个插件,能够同时从多个来源采集数据,转换数据,然后将数据发送到您最喜欢的 “存储库” 中。(大多都是 Elasticsearch。)
  • Logstash管道有两个必需的元素,输入和输出,以及一个可选元素过滤器。
    在这里插入图片描述
  • 输入:采集各种样式、大小和来源的数据
    • Logstash 支持各种输入选择 ,同时从众多常用来源捕捉事件。
    • 能够以连续的流式传输方式,轻松地从您的日志、指标、Web 应用、数据存储以及各种 AWS 服务采集数据。
    在这里插入图片描述
  • 过滤器:实时解析和转换数据
  • 数据从源传输到存储库的过程中,Logstash 过滤器能够解析各个事件,
    识别已命名的字段以构建结构,并将它们转换成通用格式,以便更轻松、
    更快速地分析和实现商业价值。
    • 利用 Grok 从非结构化数据中派生出结构
    • 从 IP 地址破译出地理坐标
    • 将 PII 数据匿名化,完全排除敏感字段
    • 简化整体处理,不受数据源、格式或架构的影响

  • 输出:选择您的存储库,导出您的数据
    • 尽管 Elasticsearch 是我们的首选输出方向,能够为我们的搜索和分析带来无限可能,但它并非唯一选择。
    • Logstash提供众多输出选择,您可以将数据发送到您要指定的地 方,并且能够灵活地解锁众多下游用例。
    在这里插入图片描述

(2) logstash安装与配置

  • 软件下载
    https://elasticsearch.cn/download/
  • logstash安装
rpm -ivh jdk-8u171-linux-x64.rpm
rpm -ivh logstash-7.6.1.rpm
  • 标准输入到标准输出
/usr/share/logstash/bin/logstash -e 'input { stdin { } } 
output { stdout {} }'
  • 标准输入中键入"hello world"可以看到:
    在这里插入图片描述

标准输入

  • 标准输入到文件
vim /etc/logstash/conf.d/file.conf
编辑:
input  {
        stdin {}
}

output {
         stdout {}

         file {
                 path => "/tmp/testfile"
                 codec => line { format => "custom format: %{message}"}
        }
}
  • 指定配置文件运行
/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/file.conf
  • 标准输入中键入"hello world"可以看到:

在这里插入图片描述


  • 标准输入到es主机:
vim /etc/logstash/conf.d/file.conf
编辑:
input  {
        stdin {}
}

output {
         stdout {}

        # file {
        #        path => "/tmp/testfile"
        #        codec => line { format => "custom format: %{message}"}
        #}
 elasticsearch {
          index => "apachelog-%{+YYYY.MM.dd}"
          hosts => ["192.168.174.50:9200"]
        }
}
  • 指定配置文件运行
 /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/file.conf

在这里插入图片描述

  • 查看es主机
    在这里插入图片描述

file输入插件

  • 增加权限
chmod 664 /var/log/messages
vim /etc/logstash/conf.d/file.conf
编辑:
input  {
        #stdin {}
        file {
            path => "/var/log/messages"
            start_position => "beginning"
       }
}

output {
         stdout {}

        # file {
        #        path => "/tmp/testfile"
        #        codec => line { format => "custom format: %{message}"}
        #}
 elasticsearch {
          index => "messages-%{+YYYY.MM.dd}"
          hosts => ["192.168.174.50:9200"]
        }
}
  • 指定配置文件运行
/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/file.conf

在这里插入图片描述

  • 查看ES主机:
    在这里插入图片描述
  • logstash如何区分设备、文件名、文件的不同版本
  • logstash会把进度保存到sincedb文件中
# find / -name .sincedb*
/usr/share/logstash/data/plugins/inputs/file/.sincedb_45290
5a167cf4509fd08acb964fdb20c
# cd /usr/share/logstash/data/plugins/inputs/file/
# cat .sincedb_452905a167cf4509fd08acb964fdb20c 
20297 0 64768 119226 1551859343.6468308 
/var/log/messages
# ls -i /var/log/messages
20297 /var/log/messages
  • sincedb文件内容解释
# cat .sincedb_452905a167cf4509fd08acb964fdb20c
20297 0 64768 119226 1551859343.6468308 
/var/log/messages
  • sincedb文件一共6个字段
    • inode编号
    • 文件系统的主要设备号
    • 文件系统的次要设备号
    • 文件中的当前字节偏移量
    • 最后一个活动时间戳(浮点数)
    • 与此记录匹配的最后一个已知路径

syslog输入插件

 vim /etc/logstash/conf.d/syslog.conf
 编辑:
 input {
 syslog {
 type => "rsyslog"
 port => 514     #日志收集端口
 }
}
output {
 stdout { }
}
  • 指定配置文件运行
/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/syslog.conf

在这里插入图片描述

  • 指定开启514端口
netstat -antulp |grep :514

在这里插入图片描述

  • 配置客户端传入日志
vim /etc/rsyslog.conf
写入:
*.* @@192.168.174.80:514

systemctl restart rsyslog
  • 查看logstash上的标准输出:
    在这里插入图片描述

多行过滤插件

vim /etc/logstash/conf.d/multiline.conf
编辑:
   input {
             stdin {
             codec => multiline {
                             pattern => "^EOF"
                             negate => true
                             what => previous
                             } 
              }
 }
output {
           stdout {}
}
  • 指定配置文件运行
 /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/filter.conf
  • 查看输入
    在这里插入图片描述

grok过滤插件

  • grok过滤
vim /etc/logstash/conf.d/grok.conf
编辑:
input {
          stdin {}
}
filter {
          grok {
          match => { "message" => "
          %{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}" }
         } 
}
output {
       stdout {}
}
  • 指定配置文件运行
 /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/grok.conf
  • 查看输出
    55.3.244.1 GET /index.html 15824 0.043
    在这里插入图片描述

  • apache服务日志过滤实战
vim /etc/logstash/conf.d/apache.conf
编辑:
input {
         file {
                path => "/var/log/httpd/access_log"
                start_position => "beginning"
        }
}
filter{
        grok {
                match => { "message" => "%{HTTPD_COMBINEDLOG}" }
        }
}
output {
        elasticsearch {
                hosts => "192.168.174.60:9200"
                index => "apachelog-%{+YYYY.MM.dd}"
         }
}
  • 指定配置文件运行
/usr/share/logstash/bin/logstash -f 
/etc/logstash/conf.d/apache.conf

在这里插入图片描述

  • 查看输入
    在这里插入图片描述

3.kibana数据可视化

(1) Kibana简介

• Kibana 核心产品搭载了一批经典功能:柱状图、线状图、饼图、旭日图,等等。
在这里插入图片描述

  • 将地理数据融入任何地图
    在这里插入图片描述
  • 精选的时序性 UI,对您Elasticsearch 中的数据执行高级时间序列分析。
    在这里插入图片描述
  • 利用 Graph 功能分析数据间的关系
    在这里插入图片描述
  • Kibana 开发工具为开发人员提供了多种强大方法来帮助其与Elastic Stack 进行交互。

在这里插入图片描述

(2) kibana安装与配置

  • kibana下载
    https://elasticsearch.cn/download/
 rpm -ivh kibana-7.6.1-x86_64.rpm
  • kibana配置:
vim /etc/kibana/kibana.yml
编辑:
server.port: 5601              #服务端口
server.host: "192.168.174.90"     #服务监听地址
elasticsearch.hosts: ["http://192.168.174.50:9200"]      #ES集群地址
kibana.index: ".kibana"     #kibana在ES中创建的索引
i18n.locale: "zh-CN"     #语言
  • 启动kibana服务
systemctl enable kibana
systemctl start kibana
  • 查看端口
netstat -antlp|grep :5601

在这里插入图片描述


  • 访问kibana
    http://192.168.174.90:5601
    在这里插入图片描述
  • 创建索引匹配
    在这里插入图片描述

  • 基于ES索引创建可视化
    在这里插入图片描述

  • 声称访问量可视化
    在这里插入图片描述

  • 创建柱状图(访问量排行榜)
    在这里插入图片描述

  • 创建dashboard
    在这里插入图片描述

(3) 启用xpack安全验证

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值