kubernetes日志收集方案 ELK(一)

kubernetes日志收集方案 ELK(一)

一、为什么收集日志

收集日志可以用于:

  • 分析用户行为
  • 监控服务器状态
  • 增强系统或应用安全性等。

二、收集哪些日志

  • kubernetes集群节点系统日志
  • kubernetes集群节点应用程序日志
  • kubernetes集群中容器部署的应用程序日志

三、日志收集方案

日志收集技术栈ELK + Filebeat

Filebeat:部署在各节点,负责收集日志

Logstash:负责过滤、格式化日志

ElasticSearch:用于存储、搜索和分析日志

Kibana:展示日志数据、监控系统状态

Logstash本身可以部署在节点直接收集数据,但filebeat更轻量

四、ELK集群部署

为了增加ELK集群的运行效率,一般建议在k8s集群之外使用物理机部署ELK集群,当然也可以直接在k8s集群内部署。

4.1 主机准备(有条件的话应该将各组件部署在不同主机上,并配置群集)

主机

软件

版本

配置

IP

kibana

kibana

7.17.2

2C4G

192.168.10.14

elastic

elasticsearch

7.17.2

2C4G

192.168.10.14

logstash

logstash

7.17.2

2C4G

192.168.10.14

# hostname set-hostname xxx

# cat /etc/hosts
192.168.10.14 kibana
192.168.10.14 elastic
192.168.10.14 logstash

4.2 软件安装

由于软件下载较慢,请提前准备好以下软件。

4.2.1 安装jdk   192.168.10.14上

所有主机全部安装,可考虑使用openjdk也可以使用oracle jdk。

[root@kibana ~]# yum -y install java-11-openjdk

[root@elastic ~]# yum -y install java-11-openjdk

[root@logstash ~]# yum -y install java-11-openjdk

4.2.2 安装kibana  192.168.10.14

# wget https://artifacts.elastic.co/downloads/kibana/kibana-7.17.2-x86_64.rpm

# yum -y install kibana-7.17.2-x86_64.rpm

4.2.3 安装elasticsearch   192.168.10.14

# wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.2-x86_64.rpm

# yum -y install elasticsearch-7.17.2-x86_64.rpm

4.2.4 安装logstash   192.168.10.14

# wget https://artifacts.elastic.co/downloads/logstash/logstash-7.17.2-x86_64.rpm

# yum -y install logstash-7.17.2-x86_64.rpm

拖包

[root@harbor ~]# yum -y localinstall *.rpm

4.3 软件配置及启动  192.168.10.14

4.3.1 kibana软件配置及启动

修改/etc/kibana/kibana.yml配置文件如下:

[root@kibana ~]# vim /etc/kibana/kibana.yml

修改

第2行取消#:server.port: 5601

第 7行:server.host: "192.168.10.14"

第32行:elasticsearch.hosts: ["http://192.168.10.14:9200"]

第115行:i18n.locale: "zh-CN"

[root@kibana ~]# cat -n /etc/kibana/kibana.yml | grep -v "#" | grep -v "^$"

说明:
server.port 是开启kibana监听端口
server.host 设置远程连接主机IP地址,用于远程访问使用
elasticsearch.hosts 设置elasticsearch.hosts主机IP,用于连接elasticsearch主机,可以为多个值
i18n.locale 设置语言支持,不需要再汉化,直接修改后即可支持中文

[root@kibana ~]# systemctl start kibana

[root@kibana ~]# systemctl enable kibana

[root@kibana ~]# ss -anput | grep ":5601"

4.3.2 elasticsearch软件配置及启动

修改配置文件elasticsearch.yml如下:
[root@elastic ~]# vim /etc/elasticsearch/elasticsearch.yml

[root@elastic ~]#  cat -n /etc/elasticsearch/elasticsearch.yml | grep -v "#" | grep -v "^$"


 

说明
cluster.name 集群名称
node.name 节点名称
path.data 数据目录
path.logs 日志目录
network.host 主机IP
http.port 监听端口
discovery.seed_hosts 主机发现列表
cluster.initial_master_nodes 集群master节点

启动服务并验证
[root@elastic ~]# systemctl start elasticsearch

[root@elastic ~]# systemctl enable elasticsearch

[root@elastic ~]# ss -anput | grep ":9200"

[root@elastic ~]# curl http://192.168.10.14:9200

4.3.3 logstash软件配置及启动  192.168.10.14

4.3.3.1 修改配置文件/etc/logstash/logstash.yml如下
[root@logstash ~]# vim /etc/logstash/logstash.yml

[root@logstash ~]# cat -n /etc/logstash/logstash.yml | grep -v "#" | grep -v "^$"

  
4.3.3.2 启动服务

logstash进程不用预先启动,使用时启动即可

4.3.3.3 验证logstash可用性

标准输入及标准输出验证
[root@logstash ~]# /usr/share/logstash/bin/logstash -e 'input {stdin{} } output {stdout {} }'

以json格式输出abc内容

按Ctrl+C终止

使用logstash输入内容到elasticsearch验证


[root@logstash ~]# /usr/share/logstash/bin/logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.10.14:9200"] index => "logstash-%{+YYYY.MM.dd}" } }'

先不要退出
此内容将会通过kibana页面中的索引看到,但是需要在kibana页面中添加索引

4.4 kibana访问

本机浏览器访问:http://192.168.10.14:5601/

4.5 编写logstash用于收集日志配置文件

通过filebeat进行收集

[root@logstash ~]# vim /etc/logstash/conf.d/logstash-to-elastic.conf
input {
  beats {
    host => "0.0.0.0"
    port => "5044"
  }
}

filter {

}


output {
    elasticsearch {
      hosts => "192.168.10.14:9200"
      index => "k8s-%{+YYYY.MM.dd}"
    }
}

4.6 运行logstash

如果不涉及多个配置文件,可以直接使用systemctl start logstash;如果有多个配置文件,只想启动一个配置文件,可以使用如下方法。

4.6.1 直接在后台运行

[root@logstash ~]# /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/logstash-to-elastic.conf --path.data /usr/share/logstash/data1 &

[root@logstash ~]# netstat -lntp | grep :5044

4.6.2 通过rc.local设置自动后台运行

[root@logstash ~]# cat /etc/rc.d/rc.local
...
/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/logstash-to-elastic.conf &



查看文件默认权限
[root@logstash ~]# ls -l /etc/rc.d/rc.local




修改文件权限
[root@logstash ~]# chmod +x  /etc/rc.d/rc.local

查看修改后文件权限
[root@logstash ~]# ls -l /etc/rc.d/rc.local

五、收集k8s集群节点系统日志

通过在worker节点以DaemonSet方法运行filebeat应用实现

5.1 下载filebeat镜像

所有worker节点

Worker01和worker02上下载filebeat镜像

[root@worker01 ~]# docker pull elastic/filebeat:7.17.2

[root@worker01 ~]# docker images |grep elastic

5.2 创建filebeat资源清单文件

[root@master01 ~]# vim filebeat-to-logstash.yaml
apiVersion: v1
kind: ConfigMap
metadata:
  name: k8s-logs-filebeat-config
  namespace: kube-system

data:
  filebeat.yml: |
    filebeat.inputs:
      - type: log
        paths:
          - /var/log/messages
        fields:
          app: k8s
          type: module
        fields_under_root: true

    setup.ilm.enabled: false
    setup.template.name: "k8s-module"
    setup.template.pattern: "k8s-module-*"

    output.logstash:
      hosts: ['192.168.10.14:5044']
      index: "k8s-module-%{+yyyy.MM.dd}"

---

apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: k8s-logs
  namespace: kube-system
spec:
  selector:
    matchLabels:
      project: k8s
      app: filebeat
  template:
    metadata:
      labels:
        project: k8s
        app: filebeat
    spec:
      containers:
      - name: filebeat
        image: docker.io/elastic/filebeat:7.17.2
        args: [
          "-c", "/etc/filebeat.yml",
          "-e",
        ]
        resources:
          requests:
            cpu: 100m
            memory: 100Mi
          limits:
            cpu: 500m
            memory: 500Mi
        securityContext:
          runAsUser: 0
        volumeMounts:
        - name: filebeat-config
          mountPath: /etc/filebeat.yml
          subPath: filebeat.yml
        - name: k8s-logs
          mountPath: /var/log/messages
      volumes:
      - name: k8s-logs
        hostPath:
          path: /var/log/messages
      - name: filebeat-config
        configMap:
          name: k8s-logs-filebeat-config

5.3 应用filebeat资源清单文件

[root@master01 ~]# kubectl apply -f filebeat-to-logstash.yaml

5.4 验证结果

查看pod
[root@master01 ~]#  kubectl get pods -n kube-system -o wide

查看pod输出日志
 [root@master01 ~]#  kubectl logs k8s-logs-rbnqz -n kube-system

5.5 在kibana中添加索引

Stack Management-->索引管理-->查看到新加的索引

创建索引模式-->

Discover查看

如果不显示数据时,可选择显示更长的时间范围

------------------------------------------------------------

补充: Kibana KQL (Kibana Query Language) 简介

KQL (Kibana Query Language) 是 Kibana 中用于查询和过滤数据的专用查询语言,比 Lucene 查询语法更简单直观。

  • 基本查询语法

  1. 字段查询语法

field:value

例如:

status:200

message:"error occurred"

  1. 逻辑运算符

- AND (与): `status:200 AND extension:php`

- OR (或): `status:200 OR status:404`

- NOT (非): `NOT status:200`

  1. 通配符

- `*` 匹配零个或多个字符: `host.name:web-*`

- `?` 匹配单个字符: `host.name:web-srv?`

  1. 范围查询

bytes >= 1000 AND bytes <= 2000

response_time > 500

  1. 存在性检查

exists:field_name

  1. 嵌套字段查询

user.name:john

  • 高级功能

  1. 模糊匹配

message:~"errror"  # 会匹配"error"、"errors"等

  1. 短语搜索

message:"connection timeout"

  1. 转义特殊字符

message:"error \\[code\\]"

  1. 正则表达式

host.name:/web-\d+/

  • 实际示例

  1. 查找特定IP的404错误:

client.ip:192.168.1.100 AND status:404

  1. 查找包含"timeout"或"error"的日志:

message:"timeout" OR message:"error"

  1. 查找响应时间超过1秒的非200状态请求:

response_time > 1000 AND NOT status:200

  1. 查找特定时间范围内的日志:

@timestamp >= "2023-01-01T00:00:00" AND @timestamp <= "2023-01-02T00:00:00"

KQL 语法简洁直观,特别适合在 Kibana 的 Discover 和 Dashboard 界面中快速构建查询。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值