Elasticsearch+Logstash+Kibana环境搭建

本文详细介绍了如何搭建Elasticsearch+Logstash+Kibana的环境,包括下载Docker镜像,配置Elasticsearch的跨域验证、节点信息,安装ik分词器,设置Kibana的中文版,并通过Logstash接收和转发日志。
摘要由CSDN通过智能技术生成

下载ELK镜像文件
docker pull elasticsearch:7.2.0
docker pull mobz/elasticsearch-head:5
docker pull kibana:7.2.0
docker pull logstash:7.2.0
1.安装es
mkdir -p /home/elasticsearch/config
mkdir -p /home/elasticsearch/data
echo “http.host: 0.0.0.0”>>/home/elasticsearch/config/elasticsearch.yml
chmod -R 777 /home/elasticsearch/
运行容器
docker run --privileged=true --name myelasticsearch -p 9200:9200 -p 9300:9300 -e “discovery.type=single-node” -e ES_JAVA_OPTS=“-Xms64m -Xmx128m” -v /home/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /home/elasticsearch/data:/usr/share/elasticsearch/data -v /home/elasticsearch/plugins:/usr/share/elasticsearch/plugins -d elasticsearch:7.2.0

修改/home/elasticsearch/config/elasticsearch.yml文件

cluster.name: “docker-cluster”
network.host: 0.0.0.0

访问ID限定,0.0.0.0为不限制,生产环境请设置为固定IP

transport.host: 0.0.0.0

elasticsearch节点名称

node.name: node-1

elasticsearch节点信息

cluster.initial_master_nodes: [“node-1”]

下面的配置是关闭跨域验证(可以不开启)

http.cors.enabled: true
http.cors.allow-origin: “*”
重启es
docker restart myelasticsearch
验证结果
http://ip:9200/
安装ik分词器

下载ik分词器

https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.2.0/elasticsearch-analysis-ik-7.2.0.zip

解压后通过ftp上传到服务器下

将这个文件夹拷贝到elasticsearch中

docker cp /home/silence/elk/ik myelasticsearch:/usr/share/elasticsearch/plugins

查看是否拷贝成功,进入elasticsearch/plugins/ik中:

docker exec -it es /bin/bash
cd /usr/share/elasticsearch/plugins
ls
cd ik
ls

重新启动elasticsearch容器

docker restart myelasticsearch
运行head容器
docker run -d --restart=always --name myelasticsearch_head -p 9100:9100 mobz/elasticsearch-head:5
2、安装kibana
docker run --name mykibana --link myelasticsearch:elasticsearch -p 5601:5601 -d kibana:7.2.0
配置kibana汉化版

进入容器

docker exec -it mykibana /bin/bash

进入配置文件夹

cd config

修改配置文件

vi kibana.yml

修改elasticsearch连接(如果是本机部署,ip需填写内网ip)

elasticsearch.hosts: [ “http://elasticsearch的ip地址:端口号” ]

加入中文配置(保存后重启kibana)

i18n.locale: “zh-CN”
重启
docker restart mykibana
验证结果
http://ip:5601/
3、安装logstash
运行容器
docker run --name mylogstash -d -p 5044:5044 -p 9600:9600 logstash:7.2.0
创建目录设置权限
mkdir -p /home/elk/logstash/config;
mkdir -p /home/elk/logstash/pipeline;
chown -R 1000 /home/elk/logstash;
拷贝文件
docker cp mylogstash:/usr/share/logstash/config /home/elk/logstash/config;
docker cp mylogstash:/usr/share/logstash/pipeline /home/elk/logstash/pipeline;
删除容器doc
docker rm -f mylogstash
运行容器
docker run --name mylogstash -d -p 5044:5044 -p 9600:9600 -v /home/elk/logstash/config/config:/usr/share/logstash/config -v /home/elk/logstash/pipeline/pipeline:/usr/share/logstash/pipeline logstash:7.2.0
修改/home/elk/logstash/config/config/logstash.yml,将里面改成
http.host: “0.0.0.0”
xpack.monitoring.elasticsearch.hosts: [ “http://192.168.13.95:9200” ]
如果需要接收filebeat等其他应用的日志转发到ES,需要修改/home/elk/logstash/pipeline/pipeline/logstash.conf

input {
   
  tcp {
   
    mode => "server"
    host => "0.0.0.0"
    port => 5044
    codec => json_lines
  }
}
 
output {
   
  elasticsearch {
   
    hosts => ["http://192.168.13.95:9200"]
    index => "springboot-logstash-test-%{+YYYY.MM.dd}"
    #user => "elastic&#
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值