ELK日志分析-elasticsearch的部署

目录

ELK日志分析-简介

1.实验环境

 2.Elasticsearch的部署

下载安装

配置

 3.图形插件安装

1.容器方法

2.直接安装

4.优化

1.节点

2.集群

3.节点优化



ELK日志分析-简介

Elasticsearch是与名为Logstash的数据收集和日志解析引擎以及名为Kibana的分析和可视化平台一起开发的。这三个产品被设计成一个集成解决方案,称为“Elastic Stack”(以前称为“ELK stack”)。

ElasticSearch:是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。

Logstash:是一个具有实时渠道能力的数据收集引擎,主要用于日志的收集与解析,并将其存入 ElasticSearch中。与ElasticSearch有很高的适配性。

Kibana:是一款基于 Apache 开源协议,使用 JavaScript 语言编写,为 Elasticsearch提供分析和可视化的 Web 平台。它可以在 Elasticsearch 的索引中查找,交互数据,并生成各种维度的表图。

1.实验环境

三台纯净的rhel7.6

 2.Elasticsearch的部署

下载安装

下载中心 - Elastic 中文社区https://elasticsearch.cn/download/这里下载了7.6.1

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.6.1-x86_64.rpm
yum install elasticsearch-7.6.1-x86_64.rpm -y
systemctl daemon-reload

配置

 编辑yml文件,重启服务报错

17 cluster.name: my-es  集群名
23 node.name: server1  主机名本地解析
43 bootstrap.memory_lock: true  锁定内存  生产环境   
   http.port: 9200
   
 55 network.host: 0.0.0.0
 68 discovery.seed_hosts: ["server1", "server2","server3"]
 72 cluster.initial_master_nodes: ["server1", "server2","server3"]  初始化的master取值

 查看日志分析

cat /var/log/elasticsearch/my-es.log 

 [1]: memory locking requested for elasticsearch process but memory is not locked

根据日志提示修改

vim /etc/security/limits.conf 

 内存足够将swap分区禁掉

[root@server1 elasticsearch]# vim /etc/fstab 
[root@server1 elasticsearch]# mount -a

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是Docker Compose部署ELK的步骤: 1. 首先需要在本地安装Docker和Docker Compose。 2. 创建一个Docker Compose文件,命名为docker-compose.yml,内容如下: ``` version: '3' services: elasticsearch: image: elasticsearch:7.10.1 container_name: elasticsearch environment: - discovery.type=single-node ports: - "9200:9200" - "9300:9300" volumes: - ./elasticsearch/data:/usr/share/elasticsearch/data logstash: image: logstash:7.10.1 container_name: logstash volumes: - ./logstash/pipeline:/usr/share/logstash/pipeline ports: - "5000:5000" - "9600:9600" depends_on: - elasticsearch kibana: image: kibana:7.10.1 container_name: kibana ports: - "5601:5601" depends_on: - elasticsearch ``` 3. 在同级目录下创建三个文件夹:elasticsearch/data、logstash/pipeline和kibana/config,用于存储数据和配置文件。 4. 在logstash/pipeline文件夹下创建一个logstash.conf文件,用于配置Logstash: ``` input { tcp { port => 5000 codec => json_lines } } output { elasticsearch { hosts => ["elasticsearch:9200"] index => "logstash-%{+YYYY.MM.dd}" } } ``` 5. 在kibana/config文件夹下创建一个kibana.yml文件,用于配置Kibana: ``` server.host: "0.0.0.0" elasticsearch.hosts: ["http://elasticsearch:9200"] ``` 6. 执行以下命令启动ELK: ``` docker-compose up ``` 7. 访问http://localhost:5601,即可进入Kibana界面,开始使用ELK进行日志分析。 希望这些步骤能够帮助你成功部署ELK。如果有任何问题,请随时向我提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值