ELK( Elasticsearch、Logstash、Kibana )部署

一、elasticsearch 部署

部署机器 10.0.0.31 、10.0.0.32 、10.0.0.33

1.1 环境初始化

数据盘与系统盘分离

mkfs.ext4 /dev/sdb
mkdir /data
vim /etc/fstab
/dev/sdb    /data    ext4    default    0    0
UUID=""    /data    ext4    default    0    0    #命令 blkid /dev/sdb 来获取UUID  挂载方法二选一
mount -a
df -TH

内核优化:可同时打开的文件数量

echo "* soft nofile 65536" >> /etc/security/limits.conf
echo "* hard nofile 65536" >> /etc/security/limits.conf

1.2 安装 elasticsearch

将 elasticsearch-7.12.1-amd64.deb 软件包传到 /usr/local/src 目录下,并进行安装

# 安装 elasticsearch
dpkg -i /usr/local/src/elasticsearch-7.12.1-amd64.deb

1.3 编辑 elasticsearch 配置文件

配置文件解释

vim /etc/elasticsearch/elasticsearch.yml
cluster.name: ELK-Cluster        #ELK 的集群名称,名称相同即属于是同一个集群 
node.name: elk-node1             #当前节点在集群内的节点名称 
path.data: /elk/data             #ES 数据保存目录 
path.logs: /elk/logs             #ES 日志保存目 
bootstrap.memory_lock: true      #服务启动的时候锁定足够的内存,防止数据写入 swap 
network.host: 0.0.0.0            #监听 IP 
http.port: 9200                  #监听端口 

#集群中 node 节点发现列表 
discovery.seed_hosts: ["172.31.6.104","172.31.6.105","172.31.6.106" 

#集群初始化那些节点可以被选举为 master 
cluster.initial_master_nodes: ["172.31.6.104","172.31.6.105","172.31.6.106"] 

#2.x 5.x 6.x 配置节点发现列表 
discovery.zen.ping.unicast.hosts: ["192.168.15.11", "192.168.15.12"] 

#一个集群中的 N 个节点启动后,才允许进行数据恢复处理,默认是 1 
gateway.recover_after_nodes: 2

# 设置是否可以通过正则或者_all 删除或者关闭索引库,默认 true 表示必须需要 显式指定索引库名称,生产环境建议设置为 true,删除索引库的时候必须指定, 否则可能会误删索引库中的索引库。 删除数据必须指定,不能模糊匹配删除数据。
action.destructive_requires_name: true

es1配置

cluster.name: lck-cluster
node.name: node1
path.data: /data/elasticsearch/data
path.logs: /data/elasticsearch/logs
network.host: 10.0.0.31
http.port: 9200
discovery.seed_hosts: ["10.0.0.31","10.0.0.32","10.0.0.33"]
cluster.initial_master_nodes: ["10.0.0.31","10.0.0.32","10.0.0.33"]
action.destructive_requires_name: true

es2配置

cluster.name: lck-cluster
node.name: node2
path.data: /data/elasticsearch/data
path.logs: /data/elasticsearch/logs
network.host: 10.0.0.32
http.port: 9200
discovery.seed_hosts: ["10.0.0.31","10.0.0.32","10.0.0.33"]
cluster.initial_master_nodes: ["10.0.0.31","10.0.0.32","10.0.0.33"]
action.destructive_requires_name: true

es3配置

cluster.name: lck-cluster
node.name: node3
path.data: /data/elasticsearch/data
path.logs: /data/elasticsearch/logs
network.host: 10.0.0.33
http.port: 9200
discovery.seed_hosts: ["10.0.0.31","10.0.0.32","10.0.0.33"]
cluster.initial_master_nodes: ["10.0.0.31","10.0.0.32","10.0.0.33"]
action.destructive_requires_name: true

1.4 更改目录文件所属者所属组

其中/data目录下的所属者和所属组是root,而/usr/lib/systemd/system/elasticsearch.service的启动用户和组都是elasticsearch,这时候需要更改/data目录的所属组和所属者

mkdir /data/elasticsearch/{data,logs}
chown elasticsearch.elasticsearch /data/elasticsearch -R
systemctl start elasticsearch.service

1.5 验证服务是否起来

# 查看集群日志
tail -f /data/elasticsearch/logs/lck-clust.log

# 查看端口是否起来,9200为用户访问端口,9300为集群通信端口
ss -ntl

1.6 修改内存限制,并同步配置文件,重启服务

# 可以让 elasticsearch 无限制地使用内存
vim /usr/lib/systemd/system/elasticsearch.service
LimitMEMLOCK=infinity

# 设置最小和最大内存限制,一般设置最大=最小,官方配置文档最大建议 30G 以内,一般16G或24G足以
vim /etc/elasticsearch/jvm.options
-Xms1g
-Xmx1g

# 服务启动的时候锁定足够的内存,防止数据写入 swap
vim /etc/elasticsearch/elasticsearch.yml
bootstrap.memory_lock: true

# 重启服务
systemctl daemon-reload
systemctl restart elasticsearch.service

1.7 浏览器访问 elasticsearch 服务端口

URL:10.0.0.31:9200
在这里插入图片描述

1.8 安装并使用 elasticsearch 插件 head

功能:可以实现对 elasticsearch 集群的状态监控与管理配置等功能
谷歌浏览器安装 elasticsearch head 插件
URL:https://chrome.google.com/webstore/category/extensions?hl=zh-CN
在这里插入图片描述
使用 elasticsearch head 插件

# 7.x 版本无需修改配置文件
# 5.x 6.x 版本需要修改配置文件才能供浏览器访问 
vim /etc/elasticsearch/elasticsearch.yml 
http.cors.enabled: true            #开启支持跨域访问 
http.cors.allow-origin: "*"        #指定允许访问范围

在这里插入图片描述

1.9 安装并使用 elasticsearch 插件 cerebro

最近阶段开源的 elasticsearch 集群 web 管理程序,0.9.3 及之前的版本需要 java 8 或者 更高版本,0.9.4 开始就需要 java 11 或更高版本,具体参考 github 地址
https://github.com/lmenezes/cerebro
0.9.4 下载地址:https://github.com/lmenezes/cerebro/releases/download/v0.9.4/cerebro-0.9.4.zip

apt -y install openjdk-11-jdk

cd /usr/local/src

unzip cerebro-0.9.4.zip

cd cerebro-0.9.4/

pwd /usr/local/src/cerebro-0.9.4

vim conf/application.conf 
hosts = [ 
	{ 
		host = "http://10.0.0.31:9200" 
		name = "lck-clust" 
		# headers-whitelist = [ "x-proxy-user", "x-proxy-roles", "X-Forwarded-For" ] 
	} 

./bin/cerebro

在这里插入图片描述
创建 index: More-create index
number of shard: 一个数据几个分片
number of replicas: 一个分片几个副本
生产环境中: 一个分片 一个副本就够了
在这里插入图片描述
节点信息统计
在这里插入图片描述
API 使用: More–cat apis
在这里插入图片描述

1.10 监控 elasticsearch 集群状态

1.10.1 通过 shell 命令获取集群状态

获取到的是一个 json 格式的返回值,那就可以通过 python 对其中的信息进行分析,例如对 status 进行分析,如果等于 green(绿色)就是运行在正常,等于 yellow(黄色)表示副本分片丢失,red(红色)表示主分片丢失。

root@ubuntu1804:/usr/local/src# curl -sXGET http://10.0.0.31:9200/_cluster/health?pretty=true
{
  "cluster_name" : "lck-cluster",
  "status" : "green",
  "timed_out" : false,
  "number_of_nodes" : 3,
  "number_of_data_nodes" : 3,
  "active_primary_shards" : 0,
  "active_shards" : 0,
  "relocating_shards" : 0,
  "initializing_shards" : 0,
  "unassigned_shards" : 0,
  "delayed_unassigned_shards" : 0,
  "number_of_pending_tasks" : 0,
  "number_of_in_flight_fetch" : 0,
  "task_max_waiting_in_queue_millis" : 0,
  "active_shards_percent_as_number" : 100.0
}

1.10.2 python 脚本

#!/usr/bin/env python 
#coding:utf-8 
#Author Zhang Jie 
import smtplib 
from email.mime.text import MIMEText 
from email.utils import formataddr 
import subprocess 
body = "" 
false="false" 
obj = subprocess.Popen(("curl -sXGET http://172.31.2.101:9200/_cluster/health?pretty=true"),shell=True, stdout=subprocess.PIPE) 
data = obj.stdout.read() 
data1 = eval(data) 
status = data1.get("status") 
if status == "green": 
	print("50") 
else:
	print("100")

二、部署 logstash

部署机器 10.0.0.37

2.1 环境初始化

apt install -y openjdk-8-jdk

2.2 安装 logstash

将 logstash-7.12.1-amd64.deb 软件包传到 /usr/local/src 目录下,并进行安装

# 安装 elasticsearch
dpkg -i /usr/local/src/logstash-7.12.1-amd64.deb

2.3 测试 logstash 标准输入及标准输出

一个标准输入 就会有一个 标准输出,这样的操作称为一个事件

/usr/share/logstash/bin/logstash -e 'input { stdin { type => stdin } } output { stdout { codec => rubydebug } }'
hello world
{
          "host" => "ubuntu1804",
       "message" => "hello world",
    "@timestamp" => 2021-08-27T16:16:44.133Z,
          "type" => "stdin",
      "@version" => "1"
}

2.4 测试 logstash 输出到文件

/usr/share/logstash/bin/logstash -e 'input { stdin { type => stdin } } output { file { path => "/tmp/log-%{+YYYY.MM.dd}messages.gz"}}'
hello world
[INFO ] 2021-08-27 16:24:33.041 [[main]>worker1] file - Opening file {:path=>"/tmp/log-2021.08.27messages.gz"}
[INFO ] 2021-08-27 16:24:47.000 [[main]>worker0] file - Closing file /tmp/log-2021.08.27messages.gz

# 打开文件验证
root@ubuntu1804:~# tail -f /tmp/log-2021.08.27messages.gz
{"type":"stdin","message":"hello world","@version":"1","@timestamp":"2021-08-27T16:24:32.749Z","host":"ubuntu1804"}

2.5 测试 logstash 输出到 elasticsearch

/usr/share/logstash/bin/logstash -e 'input { stdin { type => stdin } } output { elasticsearch { hosts => ["10.0.0.31:9200"] index => "mytest-%{+YYYY.MM.dd}" }}'

以配置文件的形式,将日志输出到 elasticsearch

vim /etc/logstash/conf.d/test.conf
input {
  file {
    path => "/var/log/syslog"
    type => "systemlog"
  }
}

output {
  elasticsearch {
    hosts => ["10.0.0.31:9200"] 
    index => "logstash-lck-testindex"
  }
}

# 由于日志文件普通用户没有读权限,需要修改启动logstash服务时的用户
vim /etc/systemd/system/logstash.service    
User=root
Group=root

# 服务起来,就会自动执行配置文件
systemctl restart logstash

# 查看logstash日志,看服务是否可用
tail -f /var/log/logstash/logstash-plain.log

# 在日志中可以看到会生成一个 .sincedb_ 文件,该文件会记录日志收集到哪个位置

在这里插入图片描述

root@ubuntu1804:~# cat /var/lib/logstash/plugins/inputs/file/.sincedb_f5fdf6ea0ea92860c6a6b2b354bfcbbc
5245619 0 2050 793209 1630115834.829515 /var/log/syslog
root@ubuntu1804:~# ll /var/log/syslog
-rw-r----- 1 syslog adm 793209 Aug 28 01:57 /var/log/syslog

file 选项

start_position => "beginning"  # 从头开始收集日志,也可以 "end" 从末尾收集日志
start_interval => 3    # 每三秒钟收集一次日志信息

2.6 测试 elasticsearch 服务器验证收到数据

root@ubuntu1804:/usr/local/src# ll /data/elasticsearch/data/nodes/0/indices/
total 12
drwxr-xr-x 3 elasticsearch elasticsearch 4096 Aug 28 02:04 ./
drwxr-xr-x 5 elasticsearch elasticsearch 4096 Aug 28 02:05 ../
drwxr-xr-x 4 elasticsearch elasticsearch 4096 Aug 28 02:04 3VG3QtzIQ96Pv1TQ5oQMeg/

在这里插入图片描述
在这里插入图片描述

三、kibana 部署

部署机器 10.0.0.31

3.1 安装 kibana

# 将文件包 kibana-7.12.1-amd64.deb 上传到/usr/local/src
root@ubuntu1804:/usr/local/src# dpkg -i kibana-7.12.1-amd64.deb

3.2 编辑 kibana 配置文件

vim /etc/kibana/kibana.yml
server.port: 5601    #监听端口 
server.host: "10.0.0.31"    #监听地址
elasticsearch.hosts: ["http://10.0.0.31:9200"] 
i18n.locale: "zh-CN"    #支持中文 
elasticsearch.url: http://10.0.0.31:9200    #elasticsearch 服务器地址

3.3 启动服务并验证服务是否起来

# 启动服务
root@ubuntu1804:/usr/local/src# systemctl start kibana.service

# 查看5601端口是否起来
root@ubuntu1804:/usr/local/src# ss -ntl
State            Recv-Q            Send-Q                             Local Address:Port                         Peer Address:Port
LISTEN           0                 128                                127.0.0.53%lo:53                                0.0.0.0:*
LISTEN           0                 128                                      0.0.0.0:22                                0.0.0.0:*
LISTEN           0                 128                                    127.0.0.1:6011                              0.0.0.0:*
LISTEN           0                 128                                    10.0.0.31:5601                              0.0.0.0:*
LISTEN           0                 128                                         [::]:22                                   [::]:*
LISTEN           0                 128                                        [::1]:6011                                 [::]:*
LISTEN           0                 128                           [::ffff:10.0.0.31]:9200                                    *:*
LISTEN           0                 128                           [::ffff:10.0.0.31]:9300                                    *:*

在这里插入图片描述

3.4 查看状态

在这里插入图片描述

3.5 创建索引方便查询日志

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
利用索引查看已过滤的日志
在这里插入图片描述

# 在 10.0.0.37 测试数据的写入
root@ubuntu1804:~# echo "lck-v111111111111111" >> /var/log/syslog

在这里插入图片描述

ELK v7.12.1安装包.zip https://download.csdn.net/download/qq_42606357/21698541

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值