快速搭建一套elk日志系统

背景:在开发调试阶段,发现bug后开始在服务器上查找日志,但是这个过程真的好痛苦.
一种方式是直接在服务器上tail -f 或者tail -n 直接查看,但是日志太多,不容易发现问题
另一种方式导出最近的日志到本地,打开本地编辑器一点一点查看
但是两种方式都很麻烦,有没有轻松一点的方法呢?
在这个开源的时代,一直听说elk架构,那就搭建这个日志系统,感受下这个系统的魅力吧

以下软件可以去:https://mirrors.huaweicloud.com 下载很快

基本服务介绍
什么是elasticsearch

Elasticsearch 是一个分布式可扩展的实时搜索和分析引擎, 一切设计都是为了提高搜索的性能

  1. 分布式实时文件存储,并将每一个字段都编入索引,使其可以被搜索。
  2. 实时分析的分布式搜索引擎。
  3. 可以扩展到上百台服务器,处理PB级别的结构化或非结构化数据。
    什么是Filebeat

go语言开发的,一个轻量级的日志收集的工具,消耗更少的cpu 和 内存。

什么是Logstash

Logstash 是一个轻量级、开源的服务器端数据处理管道,允许您从各种来源收集数据,进行动态转换,并将数据发送到您希望的目标
但是logstash java开发,依赖jvm,相对filebeat还是比较消耗服务器资源

主要工作过程是是 input->filter->output
获取输入, 过滤解析, 重新输出,配置比较简单
什么是Kibana

Kibana 是一款开源的数据分析和可视化平台,它是 Elastic Stack 成员之一,设计用于和 Elasticsearch 协作。
可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。
可以很方便的利用图表、表格及地图对数据进行多元化的分析和呈现。
怎么使用?

因为logstash服务比较重,所以我们主要是通过filebeat来采集日志信息,都交给logstash,通过logstash过滤输出到elasticsearch中.
建议的服务搭建

  1. 独立的es集群
  2. 每个服务器上安装filebeat进行日志采集
  3. 单独的logstash服务,来接收filebeat日志,过滤并输出到es中
  4. 单独的kibana服务,来做数据段web页面展示
    来贴张常用的架构图
    在这里插入图片描述

安装服务
官网 https://www.elastic.co/cn/downloads/
首先我选择安装目录为

mkdir -p /usr/local/elk

0 服务器先安装 jdk环境, 版本jdk8 以上

推荐yum安装

1 下载安装 elasticsearch

下载elasticsearch 下载安装包,并解压

cd /usr/local/elk
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.6.0-linux-x86_64.tar.gz
tar xvf elasticsearch-7.6.0-linux-x86_64.tar.gz
使用默认配置,启动服务

cd /usr/local/elk/elasticsearch-7.6.0/bin
./elasticsearch -d
好吧,出师不利,刚启动遇到第一个问题,elasticsearch不允许root用户启动(后面几个服务也是不允许),所以我先创建elstic用户和组,并设置elk目录属于elstic用户组

错误显示为

java.lang.RuntimeException: can not run elasticsearch as root
解决方式

创建elastic用户
adduser elastic
设置密码
passwd elastic
修改目录权限
chown -R  elstic /etc/usr/elk
切换用户
su elastic

然后成功启动
可以访问elsticsearch接口试下
在这里插入图片描述

2下载安装启动kibana

下载并解压

cd /usr/local/elk/
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.6.0-linux-x86_64.tar.gz
tar xvf kibana-7.6.0-linux-x86_64.tar.gz
修改配置,使其能够外网访问,并且配置为中文版

vim /usr/local/elk/kibana-7.6.0-linux-x86_64/config/kibana.xml

修改1. 改为外网可访问形式(不建议,最好限制ip)
server.host: “0.0.0.0”
修改2. 最后一行增加
i18n.locale: “zh-CN”

注意:服务器上要开放外网访问端口,默认为 5601
然后浏览器访问 外网ip:5601,很开心进入管理页面,并且是中文版呦
在这里插入图片描述

3 下载安装 filebeat

cd /usr/local/elk/
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.6.0-linux-x86_64.tar.gz
tar xvf filebeat-7.6.0-linux-x86_64.tar.gz
这里我们重点讲下filebeat的配置
通用设计是 filebeat读取日志,输出到logstash,经过logstash解析后,输出到 elasticsearch
问题1.增么配置filebeat读取日志呢?
我们打开filebeat.xml,进行如下配置

filebeat 输入标识

filebeat.inputs:

Each - is an input. Most options can be set at the input level, so

you can use different inputs for various configurations.

Below are the input specific configurations.

定义输入类型,为日志类型

  • type: log

    Change to true to enable this input configuration.

    开启配置

    enabled: true

    Paths that should be crawled and fetched. Glob based paths.

    读取日志文件罗京

    paths:

    • /data/logs/cheetahcafe_server/test/info.log
    • 增加自定义字段

    fields:
    log_name: cheetahcafe-test
    tail_files: true
    #- c:\programdata\elasticsearch\logs*

  • type: log
    enabled: true
    paths:

    • /data/logs/cheetahcafe_server/dev/info.log
      fields:
      log_name: cheetahcafe-dev
      tail_files: true

    Exclude lines. A list of regular expressions to match. It drops the lines that are

    matching any regular expression from the list.

    #exclude_lines: [’^DBG’]

上面配置可以看到,我们配置了多个日志输入,如果有多个服务日志需要监控的化,可以采用上面这种配置,并且设置 fields字段,进行区分

问题2 怎么输出到 logstash中?
默认配置文件很给力,都有示例,太好用了

同样我们还是打开配置文件,进行如下配置,
1 注释 output elasticsearch ,默认的是这种形式,但是我们不采用,先注释掉
#output.elasticsearch:

Array of hosts to connect to.

hosts: [“localhost:9200”]

Protocol - either http (default) or https.

#protocol: “https”

Authentication credentials - either API key or username/password.

#api_key: “id:api_key”
#username: “elastic”
#password: “changeme”

开启logstash配置,配置中有注释说明哦,非常简单

#----------------------------- Logstash output --------------------------------
output.logstash:

The Logstash hosts

Logstash 主机地址,我们默认本机的5044端口

hosts: [“localhost:5044”]

Optional SSL. By default is off. 开启ssl

List of root certificates for HTTPS server verifications

#ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]

Certificate for SSL client authentication

#ssl.certificate: “/etc/pki/client/cert.pem”

Client Certificate Key

#ssl.key: “/etc/pki/client/cert.key”

配置后可以进行启动filebeat

cd /usr/local/elk/filebeat-7.6.0-linux-x86_64
nohup ./filebeat -c filebeat.yml &
4 下载安装 logstash

wget https://artifacts.elastic.co/downloads/logstash/logstash-7.6.0.tar.gz
tar xvf logstash-7.6.0.tar.gz
我们同样要考虑下面两个问题来进行配置
1.我们怎么读取日志输入?
通过filebeat把日志输入到logstash中,我们打开配置文件,进行下面配置

cd /usr/local/elk/logstash-7.6.0/config
cp logstash-sample.conf logstash.conf
vim logstash.conf
配置日志输入,beats配置
input {
beats {
# beats的端口号
port => 5044
# 是否开启ssl加密,否
ssl => false
}
}

2.我们输出到哪里?
我们日志输出到elasticsearch中,上面说到此时有两个filebeats输入,我们怎么进行区分呢?
此时 filebeats中的fields字段此时就有很大用处了

输出配置,输出到elasticsearch中
output {
elasticsearch {
# es的服务和端口
hosts => [“http://localhost:9200”]
# 输出到es中索引的创建格式,此时注意 {[fields][log_name]} ,这里使用了filebeats中配置的自定义属性进行区分索引
index => “%{[fields][log_name]}-%{+YYYY.MM.dd}”
#index => “%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}”
#user => “elastic”
#password => “changeme”
}
}

这样我们很轻松就配置好了 logstash,下面进行启动服务

cd /usr/local/elk/logstash-7.6.0/bin
nohup ./logstash -f …/config/logstash-es.conf &
通过上面操作,我们就成功配置和启动我们的elk日志系统了
下面开心的到kibana中使用下吧

使用kibana
最后一步,我们来看下怎么使用吧? 浏览器访问 ip+端口,打开面板

创建索引模式

首先 我们先创建个索引模式,为了能够简单对统一索引进行合并展示
点击 管理 -> 索引模式,然后创建索引模式
在这里插入图片描述
因为我们的索引是根据项目并且按天进行创建的,所以可以按照项目名来创建索引模式就行了, 很简单…

查看日志信息

创建好索引模式,我们就可以在 侧边栏的 “发现” 中找到想要查看的数据了, 默认查看的字段比较多,但是基本都是我们不关系的,
可以在可用字段中选择 message,只展示时间和message 就可以了,下面是展示效果

在这里插入图片描述

总结
回顾整体流程

1 使用filebeat采集数据,输出到logstash中
2 logstash 接收filebeat的日志,输出到elasticsearch中
3 kibana 连接了elasticsearch, 能够展示索引数据,并做些数据汇总,展示,筛选的操作
感受到的不足

1 logstash 只对日志的接收和输出做了处理,没有使用filter进行日志筛选和结构化处理,
所以查看日志的时候,是通过message的字段,整体查看的
2 kibana没有增加权限校验,直接对外开放比较危险, 可以简单处理,增加对访问的ip限制
比如 只允许内网访问 等
遇到的问题

elasticsearch服务和logstash服务不能用root用户启动
解决方式:创建个其它用户,使用其它用户启动

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值