Linux Docker 安装 Elasticsearch Logstash Kibana

Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口风格的搜索和数据分析引擎。

Kibana 是一款开源的数据分析和可视化平台,它是 Elastic Stack 成员之一,设计用于和 Elasticsearch 协作。您可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。您可以很方便的利用图表、表格及地图对数据进行多元化的分析和呈现。

Logstash是 Elastic Stack 的中央数据流引擎(数据收集引擎),用于收集、丰富和统一所有数据,而不管格式或模式。

当Logstash与Elasticsearch,Kibana,及 Beats 共同使用的时候便会拥有特别强大的实时处理能力(ELK)。

1、Elasticsearch 搜索,下载,查询

# 搜索镜像
docker search elasticsearch

# 下载镜像
docker pull elasticsearch
docker pull elasticsearch:7.15.2

# 查看镜像
docker images

2、Logstash 搜索,下载,查询

# 搜索镜像
docker search logstash

# 下载镜像
docker pull logstash:7.15.2

# 查看镜像
docker images

3、Kibana 搜索,下载,查询

# 搜索镜像
docker search kibana

# 下载镜像
docker pull kibana:latest
docker pull kibana:7.15.2

# 查看镜像
docker images

4、创建挂载目录 Elasticsearch,集群目录

mkdir -p /home/20221125/myelk/es/{config,logs,data,plugins}
chown -R 1000:1000 /data/myelk/es
touch /home/20221125/myelk/es/config/elasticsearch.yml

# 创建集群文件夹目录
# node_1
mkdir -p /home/20221125/es_cluster/node_1/{config,logs,data}
mkdir -p /home/20221125/es_cluster/node_1/plugins/ik

# node_2
mkdir -p /home/20221125/es_cluster/node_2/{config,logs,data}
mkdir -p /home/20221125/es_cluster/node_2/plugins/ik

# node_3
mkdir -p /home/20221125/es_cluster/node_3/{config,logs,data}
mkdir -p /home/20221125/es_cluster/node_3/plugins/ik

5、创建挂载目录 Logstash

mkdir -p /home/20221125/myelk/logstash/{config,logs,pipeline}
mkdir -p /home/20221125/myelk/logstash/config/conf.d
chmod 777 -R /home/20221125/myelk/logstash

touch /home/20221125/myelk/logstash/config/logstash.yml
vim /home/20221125/myelk/logstash/config/logstash.yml

##增加配置
    http.host: "0.0.0.0"  # 注意 0.0.0.0 不是指定ip
    xpack.monitoring.enabled: true
    xpack.monitoring.elasticsearch.hosts: [ "http://192.168.31.196:9200" ]
    xpack.monitoring.elasticsearch.username: "elastic"  #es xpack账号
    xpack.monitoring.elasticsearch.password: "xxxx"     #es xpack账号
    path.config: /usr/share/logstash/config/conf.d/*.conf
    path.logs: /usr/share/logstash/logs

6、创建挂载目录 Kibana

mkdir -p /home/20221125/myelk/kibana/{config,data}

touch /home/20221125/myelk/kibana/config/kibana.yml

vim /home/20221125/myelk/kibana/config/kibana.yml
##增加配置
    server.name: kibana
    server.host: "0.0.0.0"
    server.port: 5601
    # 设置elasticsearch集群地址
    elasticsearch.hosts: ["http://192.168.1.1:9200","http://192.168.1.1:9201"]  #注意这里的ip不能是localhost,是本地的ip地址
    xpack.monitoring.ui.container.elasticsearch.enabled: true
    #设置kibana中文显示
    i18n.locale: zh-CN
    elasticsearch.url: "http://10.132.200.4:9200" #这里是7.0版本以下的配置,默认不支持集群,
    7.0版本的es的地址直接是“http://elasticsearch-cluster”直接这样配置访问

7、运行容器 Elasticsearch

# 容器 elasticsearch 样例1
docker run -it -p 9200:9200 -p 9300:9300 \
 --name first_es \
 -e ES_JAVA_OPTS="-Xms1g -Xmx1g" \
 -e "discovery.type=single-node" \
 --restart=always \
 -v /data/elk/es/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
 -v /data/elk/es/data:/usr/share/elasticsearch/data \
 -v /data/elk/es/logs:/usr/share/elasticsearch/logs \
 -v /data/elk/es/plugins:/usr/share/elasticsearch/plugins \
 -d elasticsearch:7.15.2

# 容器 elasticsearch 样例2
docker run --name first_elasticsearch -p 9200:9200  -p 9300:9300 \
 -e "discovery.type=single-node" \
 -e ES_JAVA_OPTS="-Xms84m -Xmx512m" \
 -v /opt/es_docker/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
 -v /opt/es_docker/data:/usr/share/elasticsearch/data \
 -v /opt/es_docker/plugins:/usr/share/elasticsearch/plugins \
 -d elasticsearch:7.15.2

# 容器 elasticsearch 样例3 集群
docker run --name es_node_1 -p 9201:9200  -p 9301:9300 \
 -privileged=true \
 -v /opt/es_docker/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
 -v /opt/es_docker/data:/usr/share/elasticsearch/data \
 -v /opt/es_docker/plugins:/usr/share/elasticsearch/plugins \
 -e "cluster.name=my-cluster" \
 -e "node.name=node-1" \
 -e "node.master=true" \
 -e "node.data=true" \
 -e "network.host=0.0.0.0" \
 -e "transport.tcp.port=9300" \
 -e "http.port=9200" \
 -e "cluster.initial_master_nodes=node-1" \
 -e "discovery.seed_hosts: ["192.168.1.100:9301","192.168.1.100:9302","192.168.1.100:9303"]" \
 -e "gateway.auto_import_dangling_indices=true" \
 -e "http.cors.enabled=true" \
 -e "http.cors.allow-origin:=*" \
 -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
 -e "discovery.type=single-node" \
 -e "TAKE_FILE_OWNERSHIP=true" \
 -d elasticsearch:7.15.2

# 参数说明:
 -privileged=true 设置特权级运行的容器,container内的root拥有真正的root权限
 -v 宿主机路径:容器路径
 -v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录
 -v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录
 -v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录
 --privileged:授予逻辑卷访问权
 --network es-net :加入一个名为es-net的网络中
 -p 9200:9200:端口映射配置
 -e "cluster.name=es-docker-cluster":设置集群名称
 -e "cluster.name=my-cluster":设置集群名称
 -e "http.host=0.0.0.0":监听的地址,可以外网访问
 -e "ES_JAVA_OPTS=-Xms512m -Xmx512m":内存大小
 -e "discovery.type=single-node":非集群模式,discovery.type=single-node(单机运行)
 -e "node.name=node-1":节点名称
 -e "node.master=true":是否可以成为master节点
 -e "node.data=true":是否存储数据
 -e "network.host=0.0.0.0":绑定主机ip地址,允许外网访问
 -e "transport.tcp.port=9300":集群节点之间通讯交互的tcp端口
 -e "http.port=9200":设置http端口
 -e "cluster.initial_master_nodes=node-1":master节点默认为node-1
 -e "discovery.seed_hosts":设置当前节点与哪些ES节点建立连接
 -e "gateway.auto_import_dangling_indices=true":是否自动引入dangling索引,默认false
 -e "http.cors.enabled=true":开启跨域访问
 -e "http.cors.allow-origin:=*":跨域访允许的域名地址
 -e "ES_JAVA_OPTS=-Xms512m -Xmx512m":默认jvm2G,设置jvm最小内存
 -e "TAKE_FILE_OWNERSHIP=true":解决挂载目录权限问题

# 查看容器运行日志
docker logs first_es
docker logs first_elasticsearch
docker logs es_node_1

# 查看容器 hostname、ip地址、环境变量
docker exec first_elasticsearch hostname
docker exec first_elasticsearch ip addr
docker exec first_elasticsearch env

# 查看容器IP地址
docker inspect first_es
# "IPAddress": "172.17.0.2"
 
# 查看容器IP地址
docker inspect first_es | grep 'IPAddress'

# 进入容器
docker exec -it first_es /bin/bash
docker exec -it first_es bash
ls -l

# 停止和删除容器
docker stop first_elasticsearch && docker rm first_elasticsearch

8、运行容器 Logstash
*
*
*
9、运行容器 Kibana

docker run --name first_kibana \
 -p 5601:5601 \
 --log-driver json-file \
 --log-opt max-size=100m \
 --log-opt max-file=2 \
 -v /home/20221125/myelk/kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml \
 --restart=always \
 -d kibana:7.15.2

# 查看容器运行日志
docker logs first_kibana

# 查看容器 hostname、ip地址、环境变量
docker exec first_elasticsearch hostname
docker exec first_elasticsearch ip addr
docker exec first_elasticsearch env

# 查看容器IP地址
docker inspect first_kibana
# "IPAddress": "172.17.0.2"
 
# 查看容器IP地址
docker inspect first_kibana | grep 'IPAddress'

# 进入容器
docker exec -it first_kibana /bin/bash
docker exec -it first_kibana bash
ls -l

# 停止和删除容器
docker stop first_kibana && docker rm first_kibana

*、数据包转发

# 跳转目录
cd /usr/lib/sysctl.d

# 查看文件
cat /usr/lib/sysctl.d/50-default.conf

# 编辑文件
vim /usr/lib/sysctl.d/50-default.conf

# 末尾添加内容
net.ipv4.ip_forward = 1

# 重启network
systemctl restart network

*、开放端口(需要外网访问)

# 查看防火墙状态
systemctl status firewalld

# 开放指定端口
firewall-cmd --add-port=9201/tcp --add-port=9202/tcp --add-port=9203/tcp --permanent
firewall-cmd --add-port=5601/tcp --permanent

# 重新加载
firewall-cmd --reload

# 查看开放端口
firewall-cmd --list-ports

*、验证
*
*
*
docker-compose

# Step 1: 创建 docker-compose.yml 文件
cd /home/20221125/myelk
vim docker-compose.yml

# Step 2: 编辑内容如下
version: '3'
services:
  elasticsearch:
    image: elasticsearch:7.15.2
    container_name: elasticsearch
    environment:
      - "cluster.name=elasticsearch"
      - "discovery.type=single-node"
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
    volumes:
      - /data/elk/es/data:/usr/share/elasticsearch/data
      - /data/elk/es/logs:/usr/share/elasticsearch/logs
      - /data/elk/es/plugins:/usr/share/elasticsearch/plugins
    ports:
      - 9200:9200
  kibana:
    image: kibana:7.15.2
    container_name: kibana
    links:
      - elasticsearch:es
    depends_on:
      - elasticsearch
    environment:
      - "elasticsearch.hosts=http://es:9200"
    ports:
      - 5601:5601
  logstash:
    image: logstash:7.15.2
    container_name: logstash
    volumes:
      - /data/elk/logstash/logstash-snowy.conf:/usr/share/logstash/pipeline/logstash.conf
    depends_on:
      - elasticsearch
    links:
      - elasticsearch:es
    ports:
      - 4560:4560

# Step 3: 执行命令
docker-compose up -d

*
*
*

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值