部署EFK pod日志分析系统

EFK不是一个软件,而是一套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用,是目前主流的一种日志系统。EFK是三个开源软件的缩写,分别表示:Elasticsearch , Fluentd, Kibana

组件说明:

EFK由ElasticSearch、Fluentd和Kiabana三个开源工具组成。

1、其中Elasticsearch是一款分布式搜索引擎,能够用于日志的检索

2、Fluentd是一个实时开的数据收集器,

3、Kibana 是一款能够为Elasticsearch 提供分析和可视化的 Web 平台。

这三款开源工具的组合为日志数提供了分布式的时搜集与分析的监控系统。

一、环境准备

# 资源配置:
​
Master: 4U4G
Node-1: 4U4G
Node-2: 4U4G
​
mkdir efk
​
cd efk
​
kubectl create namespace efk
​
添加 Google incubator 仓库:
​
helm repo add bitnami https://charts.bitnami.com/bitnami

二、部署 Elasticsearch

helm fetch bitnami/elasticsearch
​
tar zxvf elasticsearch-12.3.1.tgz
​
cd elasticsearch/
​
vim values.yaml
​
# 因为是实验环境,需要修改一下配置文件,否则可能会因为资源问题而导致实验失败
​
volumePermissions:
  enabled: false        # 修改为 “false”
  image:
    registry: docker.io
    repository: bitnami/minideb
    tag: buster
    pullPolicy: Always
​
master:
  name: master
  replicas: 1           # 修改为 “1”
  persistence:
    enabled: false      # 修改为 “false”
​
coordinating:
  replicas: 1           # 修改为 “1”
  updateStrategy:
    type: RollingUpdate
​
data:
  name: data
  replicas: 1           # 修改为 “1”
  persistence:
    enabled: false      # 修改为 “false”
​
# 保存退出
​
helm install . --name ela --namespace=efk -f values.yaml
​
# 测试一下:
kubectl run cirror-$RANDOM --rm -it --image=cirros -- /bin/sh
​
curl Elasticsearch:Port/_cat/nodes

完成后我们查看一下:

三、部署 Fluentd

helm fetch stable/fluentd
​
tar zxvf fluentd-2.4.1.tgz
​
cd fluentd
​
vim values.yaml
​
# 更改其中 Elasticsearch 访问地址
​
elasticsearch:
  host: 'es-elasticsearch-coordinating-only'   # 修改地址
  port: 9200
  scheme: 'http'
  ssl_version: TLSv1_2
  buffer_chunk_limit: 2M
  buffer_queue_limit: 8
  logstash_prefix: 'logstash'
  
在 system.conf 上方添加下列代码:
​
  containers.input.conf: |-
    <source>
        @id fluentd-containers.log
        @type tail
        path /var/log/containers/*.log
        pos_file /var/log/es-containers.log.pos
        tag raw.kubernetes.*
        read_from_head true
        <parse>
            @type multi_format
            <pattern>
                format json
                time_key time
                time_format %Y-%m-%dT%H:%M:%S.%NZ
            </pattern>
            <pattern>
                format /^(?<time>.+) (?<stream>stdout|stderr) [^ ]* (?<log>.*)$/
                time_format %Y-%m-%dT%H:%M:%S.%N%:z
            </pattern>
        </parse>
    </source>
    <match raw.kubernetes.**>
        @id raw.kubernetes
        @type detect_exceptions
        remove_tag_prefix raw
        message log
        stream stream
        multiline_flush_interval 5
        max_bytes 500000
        max_lines 1000
    </match>
​
vim templates/deployment.yaml 在 volumeMounts 与 volumes 下方进行挂载:
​
volumeMounts:
  - name: varlog
    mountPath: /var/log
  - name: dockercontainers
    mountPath: /var/lib/docker/containers
    readOnly: true
​
volumes:
  - name: varlog
    hostPath:
      path: /var/log
  - name: dockercontainers
    hostPath:
      path: /var/lib/docker/containers
​
helm install . --name flu --namespace=efk -f values.yaml

完成后查看:

四、部署 kibana

helm fetch bitnami/kibana
​
# 这里要特别注意一下,Kibana 的版本要与Elasticsearch 的版本一直,否则会出错,需要特别、特别注意
​
tar zxvf kibana-5.1.2.tgz
​
cd kibana/
​
vim values.yaml 
​
# 更改其中 Elasticsearch 访问地址
# 更改 Service 中的 ClusterIP 为 NodePort
​
elasticsearch:
  hosts:
    - es-elasticsearch-coordinating-only
  port: 9200
​
service:
  port: 80
  type: NodePort
​
volumePermissions:
  enabled: false
​
​
helm install . --name kia --namespace=efk -f values.yaml 

完成后查看效果:

通过暴露的端口号,进行 WEB 访问:

创建一下索引序列:

我们来以时间为例,创建索引:

通过时间序列分片:

分片成功:

查看我们收集的日志信息:

  • 31
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值