Docker部署ELK 8.8.2(1)-ELK介绍&Elasticsearch安装

说明:所有介绍和操作基于ELK 8.8.2版本。

一、Elastic Stack介绍

“ELK”是三个开源项目的首字母缩写:Elasticsearch、Logstash 和 Kibana。Elasticsearch是一个搜索和分析引擎,Logstash是服务器端数据处理管道,能够同时从多个来源采集数据、转换数据,然后将数据发送到Elasticsearch 等“存储库”,Kibana 则可以让用户在Elasticsearch中使用图形和图表对数据进行可视化。

Logstash作为数据采集的客户端,资源占用较高,于是又添加了Beats家族,通过各种更加轻量的Beat来采集数据。ELK 3个字母已经无法涵盖新加入的Beats,ELK就改名为ELK Stack,随着ELK Stack的更新升级,又升级为Elastic Stack。

 

1.1Elasticsearch介绍

Elasticsearch作为 Elastic Stack 的核心,它是一个分布式的 RESTful 搜索和分析引擎,可用来集中存储数据,以便对形形色色、规模不一的数据进行搜索、索引和分析。

可以使用 Elasticsearch 做什么?对数字、文本、地理位置、结构化数据、非结构化数据等众多数据类型的存储、索引、查询、分析,以下是Elastic Stack 所构建解决方案的完整列表。

 

​​​​​​1.2Kibana介绍

使用 Kibana 对Elasticsearch中的数据进行管理,以实现数据的搜索、可观测性、安全和分析,就像Kibana首页所示:Search、Observability、Security、Analytics。

​​​​​​​1.3Logstash介绍

Logstash作用是集中、转换和存储数据,它是服务器端数据处理管道,能够从多个来源采集数据、转换数据,然后将数据发送到“存储库”中。

Logstash最常见的作用是输入、筛选、格式化输出数据。Logstash能够动态地采集、转换和传输数据,不受格式或复杂度的影响,然后利用Grok从非结构化数据中派生出结构,从IP地址解码出地理坐标,匿名化或排除敏感字段,并简化整体处理过程。

​​​​​​​1.4Beats介绍

Beats集合了多种单一用途数据采集器,它们从成百上千或成千上万台机器和系统向 Logstash或Elasticsearch发送数据。

 

二、ELK安装环境介绍

为了便于理解,文章中还将Elastic Stack称为众所周知的ELK。

1.操作系统环境说明

系统版本:银河麒麟v10 SP2服务器版

IP、192.168.80.50

2、ELK版本:v8.8.2

3、部署方式:docker部署,docker软件的安装这里不再介绍

三、Elasticsearch部署

下载elasticsearch镜像

[root@kylin ~]# docker pull docker.elastic.co/elasticsearch/elasticsearch:8.8.2

创建docker网络elastic,并查看创建的网络

[root@kylin ~]# docker network create elastic

[root@kylin ~]# docker network ls | grep elastic

创建elasticsearch容器,名称elastic,映射端口9200和9300,加入网络elastic,为了将kibana和elasticsearch部署在一起测试,使用single-node模式

[root@kylin ~]# docker run -itd --name elastic --net elastic -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" docker.elastic.co/elasticsearch/elasticsearch:8.8.2

查看创建的容器

[root@kylin ~]# docker ps

查看容器分配的IP为172.18.0.2

[root@kylin ~]# docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' elastic

下一篇文章介绍Kibana部署。

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对于部署ELKElasticsearch, Logstash, Kibana)7.16.1的Docker环境,可以按照以下步骤进行操作: 1. 安装DockerDocker Compose:确保系统上已经安装DockerDocker Compose。可以通过官方文档或适用于您操作系统的其他资源来完成安装。 2. 创建Docker Compose文件:创建一个名为docker-compose.yml的文件,并添加以下内容: ```yaml version: '3' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.16.1 environment: - discovery.type=single-node ports: - 9200:9200 - 9300:9300 networks: - elk logstash: image: docker.elastic.co/logstash/logstash:7.16.1 volumes: - ./logstash/config:/usr/share/logstash/config - ./logstash/pipeline:/usr/share/logstash/pipeline ports: - 5000:5000 networks: - elk kibana: image: docker.elastic.co/kibana/kibana:7.16.1 environment: - ELASTICSEARCH_HOSTS=http://elasticsearch:9200 ports: - 5601:5601 networks: - elk networks: elk: ``` 3. 创建配置文件和管道文件夹:在与docker-compose.yml相同的目录中创建名为`logstash/config`和`logstash/pipeline`的文件夹。 4. 配置Logstash:在`logstash/config`文件夹中创建一个名为`logstash.yml`的文件,并添加以下内容: ```yaml http.host: "0.0.0.0" ``` 5. 创建Logstash管道:在`logstash/pipeline`文件夹中创建一个名为`pipeline.conf`的文件,并根据您的需求配置Logstash的管道。例如,以下是一个简单的例子: ```conf input { tcp { port => 5000 codec => json } } output { elasticsearch { hosts => ["elasticsearch:9200"] index => "logs-%{+YYYY.MM.dd}" } } ``` 6. 启动ELK容器:在终端中导航到包含docker-compose.yml文件的目录,并运行以下命令启动容器: ```shell docker-compose up -d ``` 7. 等待一段时间,直到容器启动完毕。然后,您可以通过浏览器访问Kibana界面,地址为`http://localhost:5601`,查看和分析日志。 请注意,这只是一个基本的ELK部署示例,您可以根据自己的需求进行进一步的配置和定制化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值