ELK7.8部署:Elasticsearch+Logstash+Kibana搭建分布式日志平台

一、前言


1、ELK简介

ELK是Elasticsearch+Logstash+Kibana的简称

  • ElasticSearch是一个基于Lucene的分布式全文搜索引擎,提供 RESTful API进行数据读写
  • Logstash是一个收集,处理和转发事件和日志消息的工具
  • Kibana是Elasticsearch的开源数据可视化插件,为查看存储在ElasticSearch提供了友好的Web界面,并提供了条形图,线条和散点图,饼图和地图等分析工具

总的来说,ElasticSearch负责存储数据,Logstash负责收集日志,并将日志格式化后写入ElasticSearch,Kibana提供可视化访问ElasticSearch数据的功能。

2、ELK工作流

在这里插入图片描述
应用将日志按照约定的Key写入Redis,Logstash从Redis中读取日志信息写入ElasticSearch集群。Kibana读取ElasticSearch中的日志,并在Web页面中以表格/图表的形式展示。

二、准备工作


1、服务器&软件环境说明

  • 软件环境

这里为了节省,Elasticsearch + Logstash + Kibana + Redis部署在了一台机器上。
如果在生产环境部署,可以按照自己的需求调整。

说明
Linux ServerUbuntu 20.04 server
Elasticsearch7.8.1
Logstash7.8.1
Kibana7.8.1
Redis6.0.3
JDK14.0.2

2、ELK环境准备


由于Elasticsearch、Logstash、Kibana均不能以root账号运行。但是Linux对非root账号可并发操作的文件、线程都有限制。所以,部署ELK相关的机器都要调整:

  • 增加最大文件打开数
    永久生效方法echo “* - nofile 65536” >> /etc/security/limits.conf
  • 修改文件限制
vim /etc/security/limits.conf    ---在文件最后面添加如下内容
* soft nofile 65536 #代表警告的设定,可以超过这个设定值,但是超过后会有警告。
* hard nofile 131072 #代表严格的设定,不允许超过这个设定的值。
* soft nproc 2048 #是每个进程可以打开的文件数的限制
* hard nproc 4096 #是操作系统级别对每个用户创建的进程数的限制
  • 调整进程数
#修改系统文件,如果没有20-nproc.conf,则创建一个
vim /etc/security/limits.d/20-nproc.conf

#调整成以下配置
*          soft    nproc     4096
root       soft    nproc     unlimited
  • 调整虚拟内存&最大并发连接
#增大用户使用内存的空间(临时)
sysctl -w vm.max_map_count=262144
#永久
vim /etc/sysctl.conf   ---添加如下
vm.max_map_count=655360
fs.file-max=655360
vm.swappiness=0
  • 以上操作重启系统后生效
reboot
useradd -s "/bin/bash" elk
  • 创建ELK相关目录并赋权
#创建ELK APP目录
mkdir /usr/elk
#创建ELK 数据目录
mkdir /elk

#更改目录Owner
chown -R elk:elk /usr/elk
chown -R elk:elk /elk
  • 下载ELK包并解压
#打开文件夹
cd /home/download

#下载
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.8.1-linux-x86_64.tar.gz
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.8.1.tar.gz
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.8.1-linux-x86_64.tar.gz

#解压
tar -zvxf elasticsearch-7.8.1.tar.gz
tar -zvxf logstash-7.8.1.tar.gz
tar -zvxf kibana-7.8.1-linux-x86_64.tar.gz

三、Elasticsearch 部署


1、准备工作

  • 移动Elasticsearch到统一目录
#移动目录
mv /home/download/elasticsearch-7.8.1 /usr/elk
#赋权
chown -R elk:elk /usr/elk/elasticsearch-7.8.1/
  • 切换账号
#账号切换到 elk
su - elk
  • 数据&日志目录
    创建Elasticsearch主目录
mkdir /elk/es
#创建Elasticsearch数据目录
mkdir /elk/es/data
#创建Elasticsearch日志目录
mkdir /elk/es/logs

2、配置

#打开目录
cd /usr/elk/elasticsearch-7.8.1

#修改配置
vim config/elasticsearch.yml
  • 配置文件内容如下:
cluster.name: elk
node.name: elk01
node.master: true
node.data: true
cluster.initial_master_nodes: ["elk01"]
path.data: /elk/es/data
path.logs: /elk/es/logs
bootstrap.memory_lock: false
bootstrap.system_call_filter: false
network.host: 0.0.0.0
http.port: 9200
#discovery.zen.ping.unicast.hosts: ["192.168.146.128"]
#discovery.zen.minimum_master_nodes: 2
#discovery.zen.ping_timeout: 150s
#discovery.zen.fd.ping_retries: 10
#client.transport.ping_timeout: 60s
http.cors.enabled: true
http.cors.allow-origin: "*"
  • 配置文件含义
cluster.name        集群名称,各节点配成相同的集群名称。
node.name       节点名称,各节点配置不同。
node.master     指示某个节点是否符合成为主节点的条件。
node.data       指示节点是否为数据节点。数据节点包含并管理索引的一部分。
path.data       数据存储目录。
path.logs       日志存储目录。
bootstrap.memory_lock       内存锁定,是否禁用交换。
bootstrap.system_call_filter    系统调用过滤器。
network.host    绑定节点IP。
http.port       端口。
discovery.zen.ping.unicast.hosts    提供其他 Elasticsearch 服务节点的单点广播发现功能。
discovery.zen.minimum_master_nodes  集群中可工作的具有Master节点资格的最小数量,官方的推荐值是(N/2)+1,其中N是具有master资格的节点的数量。
discovery.zen.ping_timeout      节点在发现过程中的等待时间。
discovery.zen.fd.ping_retries        节点发现重试次数。
http.cors.enabled               是否允许跨源 REST 请求,用于允许head插件访问ES。
http.cors.allow-origin              允许的源地址。
  • 设置JVM堆大小
vim /usr/elk/elasticsearch-7.8.1/config/jvm.options
-Xms1g    ----修改成 -Xms2g
-Xmx1g    ----修改成 -Xms2g
#一般设置为虚拟机内存的一半,最少为2G,推荐设置为4G

注意:确保堆内存最小值(Xms)与最大值(Xmx)的大小相同,防止程序在运行时改变堆内存大小。堆内存大小不要超过系统内存的50%

  • 启动ES
#进入elasticsearch根目录
cd /usr/elk/elasticsearch-7.8.1
#启动
./bin/elasticsearch
#如需后台启动,则用
nohup ./bin/elasticsearch &

浏览器访问http://192.168.146.128:9200/ 返回如下参数

{
  "name" : "elk01",
  "cluster_name" : "elk",
  "cluster_uuid" : "ixCxBDIkQA2WFtjTdKBXNQ",
  "version" : {
    "number" : "7.8.1",
    "build_flavor" : "default",
    "build_type" : "tar",
    "build_hash" : "b5ca9c58fb664ca8bf9e4057fc229b3396bf3a89",
    "build_date" : "2020-07-21T16:40:44.668009Z",
    "build_snapshot" : false,
    "lucene_version" : "8.5.1",
    "minimum_wire_compatibility_version" : "6.8.0",
    "minimum_index_compatibility_version" : "6.0.0-beta1"
  },
  "tagline" : "You Know, for Search"
}

四、Logstash 部署


1、准备工作

#移动目录
mv /home/download/logstash-7.8.1 /usr/elk
#赋权
chown -R elk:elk /usr/elk/logstash-7.8.1/
  • 切换账号
#账号切换到 elk
su - elk
  • 数据&日志目录
#创建Logstash主目录
mkdir /elk/logstash
#创建Logstash数据目录
mkdir /elk/logstash/data
#创建Logstash日志目录
mkdir /elk/logstash/logs

2、Logstash配置

  • 配置数据&日志目录
#打开目录
cd /usr/elk/logstash-7.8.1
#修改配置
vim config/logstash.yml

#增加以下内容
path.data: /elk/logstash/data
path.logs: /elk/logstash/logs
  • 配置Redis&Elasticsearch
vim config/input-output.conf

input {
  redis {
    data_type => "list"
    key => "logstash"
    host => "192.168.1.80"
    port => 6379
    threads => 5
    codec => "json"
	password => "1234"
  }
}
filter {
}
output {
  elasticsearch {
    hosts => ["192.168.1.80:9200"]
    index => "logstash-%{type}-%{+YYYY.MM.dd}"
  }
  stdout {
  }
}

该配置就是从redis中读取数据,然后写入指定的elasticsearch

Redis核心配置项说明:

data_type 	=> “list”		数据类型为list
key			=> “logstash”	缓存key为:logstash
codec 		=> “json”		数据格式为:json
  • 启动
#进入Logstash根目录
cd /usr/elk/logstash-7.8.1
#启动
./bin/logstash -f config/input-output.conf

五、Kibana 部署


1、准备工作

  • 移动Kibana到统一目录
#移动目录
mv /home/download/kibana-7.8.1-linux-x86_64 /usr/elk/kibana-7.8.1
#赋权
chown -R elk:elk /usr/elk/kibana-7.8.1/
  • 安装依赖包
apt install libnss3-dev
  • 切换账号
#账号切换到 elk
su - elk

2、Kibana配置与访问测试

  • 修改配置
#进入kibana-7.8.1根目录
cd /usr/elk/kibana-7.8.1
#修改配置
vim config/kibana.yml

#增加以下内容
i18n.locale: "zh-CN"
server.port: 5601
server.host: "192.168.1.80"     #kibana本机的地址
elasticsearch.hosts: "http://192.168.1.80:9200"  #ES主节点地址+端口
kibana.index: ".kibana"
  • 启动
#进入kibana-7.8.1根目录
cd /usr/elk/kibana-7.8.1
#启动
./bin/kibana

六、测试


1、日志写入

日历写入的话,写入到logstash监听的redis即可。
数据类型之前在/usr/elk/logstash-6.0.0/config/input-uput.conf中有配置

  • redis命令方式
#启动redis客户端
#执行以下命令
lpush logstash '{"host":"127.0.0.1","type":"logtest","message":"hello"}'

2、 访问

浏览器访问: 192.168.1.80:5601
在这里插入图片描述
在这里插入图片描述

七、备注


1、Kibana使用教程

2、如果遇到问题,可以查看以下网站:

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值