快速搭建一套elk日志系统

背景:在开发调试阶段,发现bug后开始在服务器上查找日志,但是这个过程真的好痛苦.
一种方式是直接在服务器上tail -f 或者tail -n 直接查看,但是日志太多,不容易发现问题
另一种方式导出最近的日志到本地,打开本地编辑器一点一点查看
但是两种方式都很麻烦,有没有轻松一点的方法呢?
在这个开源的时代,一直听说elk架构,那就搭建这个日志系统,感受下这个系统的魅力吧

基本服务介绍

什么是elasticsearch

Elasticsearch 是一个分布式可扩展的实时搜索和分析引擎, 一切设计都是为了提高搜索的性能

 1. 分布式实时文件存储,并将每一个字段都编入索引,使其可以被搜索。
 2. 实时分析的分布式搜索引擎。
 3. 可以扩展到上百台服务器,处理PB级别的结构化或非结构化数据。
什么是Filebeat

go语言开发的,一个轻量级的日志收集的工具,消耗更少的cpu 和 内存。

什么是Logstash

Logstash 是一个轻量级、开源的服务器端数据处理管道,允许您从各种来源收集数据,进行动态转换,并将数据发送到您希望的目标
但是logstash java开发,依赖jvm,相对filebeat还是比较消耗服务器资源

主要工作过程是是 input->filter->output 
获取输入, 过滤解析, 重新输出,配置比较简单
什么是Kibana
Kibana 是一款开源的数据分析和可视化平台,它是 Elastic Stack 成员之一,设计用于和 Elasticsearch 协作。
可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。
可以很方便的利用图表、表格及地图对数据进行多元化的分析和呈现。
怎么使用?

因为logstash服务比较重,所以我们主要是通过filebeat来采集日志信息,都交给logstash,通过logstash过滤输出到elasticsearch中.
建议的服务搭建

1. 独立的es集群
2. 每个服务器上安装filebeat进行日志采集
3. 单独的logstash服务,来接收filebeat日志,过滤并输出到es中
4. 单独的kibana服务,来做数据段web页面展示

来贴张常用的架构图
在这里插入图片描述

安装服务

官网 https://www.elastic.co/cn/downloads/
首先我选择安装目录为

mkdir -p /usr/local/elk
0 服务器先安装 jdk环境, 版本jdk8 以上

推荐yum安装

1 下载安装 elasticsearch

下载elasticsearch 下载安装包,并解压

cd /usr/local/elk
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.6.0-linux-x86_64.tar.gz
tar xvf elasticsearch-7.6.0-linux-x86_64.tar.gz

使用默认配置,启动服务

cd /usr/local/elk/elasticsearch-7.6.0/bin
./elasticsearch -d

好吧,出师不利,刚启动遇到第一个问题,elasticsearch不允许root用户启动(后面几个服务也是不允许),所以我先创建elstic用户和组,并设置elk目录属于elstic用户组

错误显示为

java.lang.RuntimeException: can not run elasticsearch as root

解决方式

	创建elastic用户
	adduser elastic
	设置密码
	passwd elastic
	修改目录权限
	chown -R  elstic /etc/usr/elk
	切换用户
	su elastic

然后成功启动
可以访问elsticsearch接口试下
在这里插入图片描述

2下载安装启动kibana

下载并解压

cd /usr/local/elk/
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.6.0-linux-x86_64.tar.gz
tar xvf kibana-7.6.0-linux-x86_64.tar.gz

修改配置,使其能够外网访问,并且配置为中文版

vim /usr/local/elk/kibana-7.6.0-linux-x86_64/config/kibana.xml

修改1. 改为外网可访问形式(不建议,最好限制ip)
		server.host: "0.0.0.0"
修改2. 最后一行增加
		 i18n.locale: "zh-CN"

注意:服务器上要开放外网访问端口,默认为 5601

然后浏览器访问 外网ip:5601,很开心进入管理页面,并且是中文版呦
在这里插入图片描述

3 下载安装 filebeat
cd /usr/local/elk/
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.6.0-linux-x86_64.tar.gz
tar xvf filebeat-7.6.0-linux-x86_64.tar.gz

这里我们重点讲下filebeat的配置
通用设计是 filebeat读取日志,输出到logstash,经过logstash解析后,输出到 elasticsearch
问题1.增么配置filebeat读取日志呢?
我们打开filebeat.xml,进行如下配置

# filebeat 输入标识
filebeat.inputs:

# Each - is an input. Most options can be set at the input level, so
# you can use different inputs for various configurations.
# Below are the input specific configurations.
# 定义输入类型,为日志类型
- type: log
  # Change to true to enable this input configuration.
  # 开启配置
  enabled: true

  # Paths that should be crawled and fetched. Glob based paths.
  # 读取日志文件罗京
  paths:
    - /data/logs/cheetahcafe_server/test/info.log
    - # 增加自定义字段
  fields:
     log_name: cheetahcafe-test
  tail_files: true
    #- c:\programdata\elasticsearch\logs\*
- type: log
  enabled: true
  paths:
    - /data/logs/cheetahcafe_server/dev/info.log
  fields:
      log_name: cheetahcafe-dev
  tail_files: true
  # Exclude lines. A list of regular expressions to match. It drops the lines that are
  # matching any regular expression from the list.
  #exclude_lines: ['^DBG']


上面配置可以看到,我们配置了多个日志输入,如果有多个服务日志需要监控的化,可以采用上面这种配置,并且设置 fields字段,进行区分

问题2 怎么输出到 logstash中?
默认配置文件很给力,都有示例,太好用了

同样我们还是打开配置文件,进行如下配置,
1 注释 output  elasticsearch ,默认的是这种形式,但是我们不采用,先注释掉
#output.elasticsearch:
  # Array of hosts to connect to.
#  hosts: ["localhost:9200"]

  # Protocol - either `http` (default) or `https`.
  #protocol: "https"

  # Authentication credentials - either API key or username/password.
  #api_key: "id:api_key"
  #username: "elastic"
  #password: "changeme"

开启logstash配置,配置中有注释说明哦,非常简单

#----------------------------- Logstash output --------------------------------
output.logstash:
  # The Logstash hosts
  # Logstash 主机地址,我们默认本机的5044端口
  hosts: ["localhost:5044"]

  # Optional SSL. By default is off. 开启ssl
  # List of root certificates for HTTPS server verifications
  #ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]

  # Certificate for SSL client authentication
  #ssl.certificate: "/etc/pki/client/cert.pem"

  # Client Certificate Key
  #ssl.key: "/etc/pki/client/cert.key"

配置后可以进行启动filebeat

cd /usr/local/elk/filebeat-7.6.0-linux-x86_64
nohup ./filebeat -c filebeat.yml &
4 下载安装 logstash
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.6.0.tar.gz
tar xvf logstash-7.6.0.tar.gz

我们同样要考虑下面两个问题来进行配置
1.我们怎么读取日志输入?
通过filebeat把日志输入到logstash中,我们打开配置文件,进行下面配置

cd /usr/local/elk/logstash-7.6.0/config
cp logstash-sample.conf logstash.conf
vim logstash.conf
配置日志输入,beats配置
input {
  beats {
  	# beats的端口号
    port => 5044
    # 是否开启ssl加密,否
    ssl => false
  }
}

2.我们输出到哪里?
我们日志输出到elasticsearch中,上面说到此时有两个filebeats输入,我们怎么进行区分呢?
此时 filebeats中的fields字段此时就有很大用处了

输出配置,输出到elasticsearch中
output {
  elasticsearch {
    # es的服务和端口
    hosts => ["http://localhost:9200"]
    # 输出到es中索引的创建格式,此时注意  {[fields][log_name]} ,这里使用了filebeats中配置的自定义属性进行区分索引
    index => "%{[fields][log_name]}-%{+YYYY.MM.dd}"
    #index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
    #user => "elastic"
    #password => "changeme"
  }
}

这样我们很轻松就配置好了 logstash,下面进行启动服务


cd /usr/local/elk/logstash-7.6.0/bin
nohup ./logstash -f ../config/logstash-es.conf &

通过上面操作,我们就成功配置和启动我们的elk日志系统了
下面开心的到kibana中使用下吧

使用kibana

最后一步,我们来看下怎么使用吧? 浏览器访问 ip+端口,打开面板

创建索引模式

首先 我们先创建个索引模式,为了能够简单对统一索引进行合并展示
点击 管理 -> 索引模式,然后创建索引模式
在这里插入图片描述
因为我们的索引是根据项目并且按天进行创建的,所以可以按照项目名来创建索引模式就行了, 很简单…

查看日志信息

创建好索引模式,我们就可以在 侧边栏的 “发现” 中找到想要查看的数据了, 默认查看的字段比较多,但是基本都是我们不关系的,
可以在可用字段中选择 message,只展示时间和message 就可以了,下面是展示效果

在这里插入图片描述

总结

回顾整体流程
1 使用filebeat采集数据,输出到logstash中
2 logstash 接收filebeat的日志,输出到elasticsearch中
3 kibana 连接了elasticsearch, 能够展示索引数据,并做些数据汇总,展示,筛选的操作
感受到的不足
1 logstash 只对日志的接收和输出做了处理,没有使用filter进行日志筛选和结构化处理,
	所以查看日志的时候,是通过message的字段,整体查看的
2 kibana没有增加权限校验,直接对外开放比较危险, 可以简单处理,增加对访问的ip限制
  比如 只允许内网访问 等
遇到的问题
  1. elasticsearch服务和logstash服务不能用root用户启动
    解决方式:创建个其它用户,使用其它用户启动

在这里插入图片描述

  • 2
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值