背景:在开发调试阶段,发现bug后开始在服务器上查找日志,但是这个过程真的好痛苦.
一种方式是直接在服务器上tail -f 或者tail -n 直接查看,但是日志太多,不容易发现问题
另一种方式导出最近的日志到本地,打开本地编辑器一点一点查看
但是两种方式都很麻烦,有没有轻松一点的方法呢?
在这个开源的时代,一直听说elk架构,那就搭建这个日志系统,感受下这个系统的魅力吧
以下软件可以去:https://mirrors.huaweicloud.com 下载很快
基本服务介绍
什么是elasticsearch
Elasticsearch 是一个分布式可扩展的实时搜索和分析引擎, 一切设计都是为了提高搜索的性能
- 分布式实时文件存储,并将每一个字段都编入索引,使其可以被搜索。
- 实时分析的分布式搜索引擎。
- 可以扩展到上百台服务器,处理PB级别的结构化或非结构化数据。
什么是Filebeat
go语言开发的,一个轻量级的日志收集的工具,消耗更少的cpu 和 内存。
什么是Logstash
Logstash 是一个轻量级、开源的服务器端数据处理管道,允许您从各种来源收集数据,进行动态转换,并将数据发送到您希望的目标
但是logstash java开发,依赖jvm,相对filebeat还是比较消耗服务器资源
主要工作过程是是 input->filter->output
获取输入, 过滤解析, 重新输出,配置比较简单
什么是Kibana
Kibana 是一款开源的数据分析和可视化平台,它是 Elastic Stack 成员之一,设计用于和 Elasticsearch 协作。
可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。
可以很方便的利用图表、表格及地图对数据进行多元化的分析和呈现。
怎么使用?
因为logstash服务比较重,所以我们主要是通过filebeat来采集日志信息,都交给logstash,通过logstash过滤输出到elasticsearch中.
建议的服务搭建
- 独立的es集群
- 每个服务器上安装filebeat进行日志采集
- 单独的logstash服务,来接收filebeat日志,过滤并输出到es中
- 单独的kibana服务,来做数据段web页面展示
来贴张常用的架构图
在这里插入图片描述
安装服务
官网 https://www.elastic.co/cn/downloads/
首先我选择安装目录为
mkdir -p /usr/local/elk
0 服务器先安装 jdk环境, 版本jdk8 以上
推荐yum安装
1 下载安装 elasticsearch
下载elasticsearch 下载安装包,并解压
cd /usr/local/elk
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.6.0-linux-x86_64.tar.gz
tar xvf elasticsearch-7.6.0-linux-x86_64.tar.gz
使用默认配置,启动服务
cd /usr/local/elk/elasticsearch-7.6.0/bin
./elasticsearch -d
好吧,出师不利,刚启动遇到第一个问题,elasticsearch不允许root用户启动(后面几个服务也是不允许),所以我先创建elstic用户和组,并设置elk目录属于elstic用户组
错误显示为
java.lang.RuntimeException: can not run elasticsearch as root
解决方式
创建elastic用户
adduser elastic
设置密码
passwd elastic
修改目录权限
chown -R elstic /etc/usr/elk
切换用户
su elastic
然后成功启动
可以访问elsticsearch接口试下
在这里插入图片描述
2下载安装启动kibana
下载并解压
cd /usr/local/elk/
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.6.0-linux-x86_64.tar.gz
tar xvf kibana-7.6.0-linux-x86_64.tar.gz
修改配置,使其能够外网访问,并且配置为中文版
vim /usr/local/elk/kibana-7.6.0-linux-x86_64/config/kibana.xml
修改1. 改为外网可访问形式(不建议,最好限制ip)
server.host: “0.0.0.0”
修改2. 最后一行增加
i18n.locale: “zh-CN”
注意:服务器上要开放外网访问端口,默认为 5601
然后浏览器访问 外网ip:5601,很开心进入管理页面,并且是中文版呦
在这里插入图片描述
3 下载安装 filebeat
cd /usr/local/elk/
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.6.0-linux-x86_64.tar.gz
tar xvf filebeat-7.6.0-linux-x86_64.tar.gz
这里我们重点讲下filebeat的配置
通用设计是 filebeat读取日志,输出到logstash,经过logstash解析后,输出到 elasticsearch
问题1.增么配置filebeat读取日志呢?
我们打开filebeat.xml,进行如下配置
filebeat 输入标识
filebeat.inputs:
Each - is an input. Most options can be set at the input level, so
you can use different inputs for various configurations.
Below are the input specific configurations.
定义输入类型,为日志类型
-
type: log
Change to true to enable this input configuration.
开启配置
enabled: true
Paths that should be crawled and fetched. Glob based paths.
读取日志文件罗京
paths:
fields:
log_name: cheetahcafe-test
tail_files: true
#- c:\programdata\elasticsearch\logs* -
type: log
enabled: true
paths:- /data/logs/cheetahcafe_server/dev/info.log
fields:
log_name: cheetahcafe-dev
tail_files: true
Exclude lines. A list of regular expressions to match. It drops the lines that are
matching any regular expression from the list.
#exclude_lines: [’^DBG’]
- /data/logs/cheetahcafe_server/dev/info.log
上面配置可以看到,我们配置了多个日志输入,如果有多个服务日志需要监控的化,可以采用上面这种配置,并且设置 fields字段,进行区分
问题2 怎么输出到 logstash中?
默认配置文件很给力,都有示例,太好用了
同样我们还是打开配置文件,进行如下配置,
1 注释 output elasticsearch ,默认的是这种形式,但是我们不采用,先注释掉
#output.elasticsearch:
Array of hosts to connect to.
hosts: [“localhost:9200”]
Protocol - either http
(default) or https
.
#protocol: “https”
Authentication credentials - either API key or username/password.
#api_key: “id:api_key”
#username: “elastic”
#password: “changeme”
开启logstash配置,配置中有注释说明哦,非常简单
#----------------------------- Logstash output --------------------------------
output.logstash:
The Logstash hosts
Logstash 主机地址,我们默认本机的5044端口
hosts: [“localhost:5044”]
Optional SSL. By default is off. 开启ssl
List of root certificates for HTTPS server verifications
#ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]
Certificate for SSL client authentication
#ssl.certificate: “/etc/pki/client/cert.pem”
Client Certificate Key
#ssl.key: “/etc/pki/client/cert.key”
配置后可以进行启动filebeat
cd /usr/local/elk/filebeat-7.6.0-linux-x86_64
nohup ./filebeat -c filebeat.yml &
4 下载安装 logstash
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.6.0.tar.gz
tar xvf logstash-7.6.0.tar.gz
我们同样要考虑下面两个问题来进行配置
1.我们怎么读取日志输入?
通过filebeat把日志输入到logstash中,我们打开配置文件,进行下面配置
cd /usr/local/elk/logstash-7.6.0/config
cp logstash-sample.conf logstash.conf
vim logstash.conf
配置日志输入,beats配置
input {
beats {
# beats的端口号
port => 5044
# 是否开启ssl加密,否
ssl => false
}
}
2.我们输出到哪里?
我们日志输出到elasticsearch中,上面说到此时有两个filebeats输入,我们怎么进行区分呢?
此时 filebeats中的fields字段此时就有很大用处了
输出配置,输出到elasticsearch中
output {
elasticsearch {
# es的服务和端口
hosts => [“http://localhost:9200”]
# 输出到es中索引的创建格式,此时注意 {[fields][log_name]} ,这里使用了filebeats中配置的自定义属性进行区分索引
index => “%{[fields][log_name]}-%{+YYYY.MM.dd}”
#index => “%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}”
#user => “elastic”
#password => “changeme”
}
}
这样我们很轻松就配置好了 logstash,下面进行启动服务
cd /usr/local/elk/logstash-7.6.0/bin
nohup ./logstash -f …/config/logstash-es.conf &
通过上面操作,我们就成功配置和启动我们的elk日志系统了
下面开心的到kibana中使用下吧
使用kibana
最后一步,我们来看下怎么使用吧? 浏览器访问 ip+端口,打开面板
创建索引模式
首先 我们先创建个索引模式,为了能够简单对统一索引进行合并展示
点击 管理 -> 索引模式,然后创建索引模式
在这里插入图片描述
因为我们的索引是根据项目并且按天进行创建的,所以可以按照项目名来创建索引模式就行了, 很简单…
查看日志信息
创建好索引模式,我们就可以在 侧边栏的 “发现” 中找到想要查看的数据了, 默认查看的字段比较多,但是基本都是我们不关系的,
可以在可用字段中选择 message,只展示时间和message 就可以了,下面是展示效果
在这里插入图片描述
总结
回顾整体流程
1 使用filebeat采集数据,输出到logstash中
2 logstash 接收filebeat的日志,输出到elasticsearch中
3 kibana 连接了elasticsearch, 能够展示索引数据,并做些数据汇总,展示,筛选的操作
感受到的不足
1 logstash 只对日志的接收和输出做了处理,没有使用filter进行日志筛选和结构化处理,
所以查看日志的时候,是通过message的字段,整体查看的
2 kibana没有增加权限校验,直接对外开放比较危险, 可以简单处理,增加对访问的ip限制
比如 只允许内网访问 等
遇到的问题
elasticsearch服务和logstash服务不能用root用户启动
解决方式:创建个其它用户,使用其它用户启动