ELK搭建完整步骤

目录

1.各个版本下载地址

2.环境:凝思系统6.0.80版本

3.概述

4.安装包准备

5.安装

5.1 上传安装包

5.2 安装ElasticSearch

1.进入/home/elk目录

2.解压安装包

3.修改配置:elasticsearch.yml

4.添加配置:jvm参数

5.修改配置:文件句柄数

6.修改配置:系统配置

7.修改配置:变量文件

 8.创建用户elastic 并切换到新用户

9.启动es与验证

5.3 安装Logstash

1.进入/home/elk目录 

2.解压安装包 

 3.修改配置:logstash-sample.conf

 4.赋予用户权限

5.切换用户启动程序

5.4 安装Kibana

1.进入/home/elk目录

2.解压安装包

3.修改配置:kibana.yml

​编辑

4.赋予用户权限

 5.切换用户启动与验证

5.5 安装filebeat

1.选择一个目录,解压安装包

 2.修改配置:filebeat.yml

3.后台启动

6. 配置Kibana

7. 查看页面


1.各个版本下载地址

Past Releases of Elastic Stack Software | Elasticicon-default.png?t=N7T8https://www.elastic.co/cn/downloads/past-releases#kibana

 这里我们选择最新的7.13.4版本。下载步骤4中的安装包。JDK1.8的话,一般用7版本,8版本会报错

2.环境:凝思系统6.0.80版本

3.概述

ELK其实是Elasticsearch,Logstash 和 Kibana三个产品的首字母缩写,这三款都是开源产品。

ElasticSearch(简称ES),是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析。

Logstash,是一个数据收集引擎,主要用于进行数据收集、解析,并将数据发送给ES。支持的数据源包括本地文件、ElasticSearch、MySQL、Kafka等等。

Kibana,为 Elasticsearch 提供了分析和 Web 可视化界面,并生成各种维度表格、图形。

上面只是用到了核心的三个组件简单搭建的ELK,实际上是有缺陷的。如果Logstash需要添加插件,那就全部服务器的Logstash都要添加插件,扩展性差。所以就有了FileBeat,占用资源少,只负责采集日志,不做其他的事情,这样就轻量级,把Logstash抽出来,做一些滤处理之类的工作。

4.安装包准备

一共四个,选择Linux X86_64版本即可

elasticsearch-7.13.4-linux-x86_64.tar.gz

filebeat-7.17.7-linux-x86_64.tar.gz

kibana-7.13.4-linux-x86_64.tar.gz

logstash-7.13.4-linux-x86_64.tar.gz

5.安装

5.1 上传安装包

elasticsearchlogstashkibana安装到ELK服务器;将filebeat安装到要采集日志的服务器。

在/home/下面新建目录elk,将安装包复制到elk文件夹下面

5.2 安装ElasticSearch

1.进入/home/elk目录

cd /home/elk

2.解压安装包

tar -zxvf elasticsearch-7.13.4-linux-x86_64.tar.gz

3.修改配置:elasticsearch.yml

#当前目录为/home/elk
vim elasticsearch-7.13.4/config/elasticsearch.yml

4.添加配置:jvm参数

#当前目录为/home/elk
vim elasticsearch-7.13.4/config/jvm.options

5.修改配置:文件句柄数

#在文件末尾添加下图红框内容(有则修改,没有则添加)
vim /etc/security/limits.conf 

6.修改配置:系统配置

#末尾添加:vm.max_map_count=262144
vim /etc/sysctl.conf

  

#对刚才修改的配置使其立即永久生效
sysctl -p /etc/sysctl.conf

7.修改配置:变量文件

#文件末尾添加:ulimit -HSn 65535
vim /etc/profile

#使刚才修改配置立即永久生效
source /etc/profile

 8.创建用户elastic 并切换到新用户

# 因为es不允许以root账号启动,所以需要提前创建一个其他账号。

#创建用户组
groupadd elastic

#创建用户,-M 表示创建用户时不生成对应home目录
useradd -g elastic -M  elastic

#修改用户密码
passwd elastic

#设置用户elastic根目录为/home/elk/elasticsearch-7.13.4
usermod -d /home/elk/elasticsearch-7.13.4 elastic

#设置elastic用户组和elastic用户的目录操作权限
chown root:elastic /home/elk/elasticsearch-7.13.4
chmod 755 /home/elk/elasticsearch-7.13.4
chown elastic:elastic /home/elk/elasticsearch-7.13.4
chmod 755 /home/elk/elasticsearch-7.13.4
chown -R elastic:elastic /home/elk/elasticsearch-7.13.4

#切换用户
su - elastic
#保证config目录下文件是elastic用户的
#如果不是,使用下列命令赋权

chown elastic:elastic elasticsearch.yml

9.启动es与验证

#先进入elasticsearch的根目录

#参数 -d 表示后台启动
./bin/elasticsearch -d

启动后如下:

验证,安装成功:

5.3 安装Logstash

1.进入/home/elk目录 

cd /home/elk

2.解压安装包 

tar -zxvf logstash-7.13.4-linux-x86_64.tar.gz 

 3.修改配置:logstash-sample.conf

找到/config目录下的logstash-sample.conf文件,注释原来的output内容,新添红框中的内容

其中mes3-log是filebeat的标签,用于区别哪个日志来源写入不同的位置

 4.赋予用户权限

chown -R elastic:elastic /home/elk/logstash-7.13.4

5.切换用户启动程序

su - elastic
cd /home/elk/logstash-7.13.4
nohup ./bin/logstash -f /home/elk/logstash-7.13.4/config/logstash-sample.conf &

启动成功如下:可以使用tail -f nohup.out命令查看启动日志是否正常

5.4 安装Kibana

1.进入/home/elk目录

cd /home/elk

2.解压安装包

tar -zxvf kibana-7.13.4-linux-x86_64.tar.gz

3.修改配置:kibana.yml

 找到/config目录下的kibana.yml文件,修改配置

#当前目录:/home/elk
vim kibana-7.13.4-linux-x86_64/config/kibana.yml

4.赋予用户权限

chown -R elastic:elastic /home/elk/kibana-7.13.4-linux-x86_64

 5.切换用户启动与验证

#切换用户
su - elastic

#切换目录
cd /home/elk/kibana-7.13.4-linux-x86_64

#后台启动
nohup ./bin/kibana &

5.5 安装filebeat

filebeat是安装在客户端侧服务器,配置后将日志传输到logstash服务器。

filebeat依赖的rseq组件,在低版本没有,必须要升级到7.17.2版本之上才可以

并且需要在filebeat配置文件中配置rseq相关信息,所以我们此处选择7.17.7

1.选择一个目录,解压安装包

tar -zxvf filebeat-7.17.7-linux-x86_64.tar.gz

 2.修改配置:filebeat.yml

vim filebeat-7.17.7-linux-x86_64/filebeat.yml

3.后台启动

#进入filebeat-7.17.7-linux-x86_64目录下进行启动
nohup ./filebeat -e -c filebeat.yml &

6. 配置Kibana

注意:因安装过程我把上述安装中的tags:mes3-log改成了tags:sys,所以下图中全是sys,tags是自己任意命名的,无所谓

1.登录页面http://IP:5601/

2.打开kibana,进入stack management > index management,选中下图中的索引,点击Edit Settings,将图中的数值改为0,并保存

3.创建索引,点击索引模式

输入mes3-log的正则匹配:[mes3-log]-*,进行通配。我配置文件是sys_,所以下图略有不同

 配置完毕

7. 查看页面

点击最左侧顶部按钮,展开页面,点击discover

输入查询条件

END

  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
开源实时日志分析ELK平台能够完美的解决我们上述的问题,ELK由ElasticSearch、Logstash和Kiabana三个开源工具组成。 官方网站:https://www.elastic.co/products Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。 Logstash是一个完全开源的工具,他可以对你的日志进行收集、过滤,并将其存储供以后使用(如,搜索)。 Kibana 也是一个开源和免费的工具,它Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。 ELK下载:https://www.elastic.co/downloads/ ELK工作原理: ElasticSearch 配置ElasticSearch: 1 2 unzip elasticsearch-6.2.4.zip cd elasticsearch-6.2.4 然后编辑ES的配置文件: 1 vi config/elasticsearch.yml 修改以下配置项: 1 2 3 4 5 6 7 cluster.name=es_cluster node.name=node0 path.data=/tmp/elasticsearch/data path.logs=/tmp/elasticsearch/logs #当前hostname或IP,我这里是node1 network.host=node1 network.port=9200 其他的选项保持默认,然后启动ES: 1 nohup sh elasticsearch > nohup.log & 注意: 1.需要添加用户elk,ES不能以root用户进行启动 2.可能出现的错误: max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536] 1 2 3 vi /etc/security/limits.conf elk soft nofile 819200 elk hard nofile 819200 max number of threads [1024] for user [work] likely too low, increase to at least [2048] 1 2 3 4 vi /etc/security/limits.d/90-nproc.conf * soft nproc 1024 #修改为: * soft nproc 2048 max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144] 1 2 3 4 5 vi /etc/sysctl.conf #增加改行配置: vm.max_map_count=655360 #保存退出后,执行: sysctl -p 另外再配置ES的时候,threadpool.bulk.queue_size 已经变成了thread_pool.bulk.queue_size ,ES_HEAP_SIZE,ES_MAX_MEM等配置都变为ES_JAVA_OPTS这一配置项,如限制内存最大最小为1G: 1 export ES_JAVA_OPTS="-Xms1g -Xmx1g" 然后可以打开页面http://node1:9200/,将会看到以下内容:(我是通过外部访问虚拟机,因此为了简单没有配置host文件,直接用ip访问) Logstash 配置Logstash: 1 2 tar -zxvf logstash-6.2.4.tar.gz cd logstash-6.2.4 编写配置文件(名字和位置可以随意,这里我放在config目录下,取名为log_app.conf): 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 vi config/log_app.config #以下为内容 input { file { path => "/usr/local/software/elk/app.log" start_position => "beginning" #从文件开始处读写 } # stdin {} #可以从标准输入读数据 } filter { #Only matched data are send to output. } output { # For detail config for elasticsearch as output, # See: https://www.elastic.co/guide/en/logstash/current/plugins-outputs-elasticsearch.html elasticsearch { action => "index" #The operation on ES hosts => "node1:9200" #ElasticSearch host, can be array. index => "applog" #The index to write data to. } } 其他的选项保持默认,然后启动Logstash: 1 2 # -f为指定配置文件 nohup sh ./bin/logstash -f ../config/log_app.config > nohup.log & 日志: Kibana 配置Kibana: 1 2 tar -zxvf kibana-6.2.4-linux-x86_64.tar.gz cd kibana-6.2.4-linux-x86_64 修改以下几项(由于是单机版的,因此host的值也可以使用localhost来代替,这里仅仅作为演示): 1 2 3 4 server.port: 5601 server.host: “node1” elasticsearch.url: http://node1:9200 kibana.index: “.kibana” 启动kibana: 1 nohup sh ./bin/kibana > nohup.log & 启动后界面: 然后需要创建index,步骤如下: ①点击左边iscover出现以下界面 ②按照注释配置,然后点击Next step,在第二页 选择@timestamp点击create创建 ③创建完成之后,可以看到以下一个界面,红框内是 自动生成的域,也可以理解为 跟数据库中的字段类似,其中有一个message字段,就是我们想要的日志信息。 ④再次点击Discover出现以下界面,可以看到默认搜索的是最后15分钟的日志,可以通过点击设置搜索的时间范围. ⑤可以点击右侧域的add设置需要显示的字段 添加完成之后,日志显示如下:

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值