分布式系统—Filebeat+Kafka+ELK 的服务部署

目录

一、部署 Filebeat 

二、配置部署 Filebeat

三、配置Logstash

四、验证


一、部署 Filebeat 

实验准备

结合之前的博客中的实验

主机名ip地址主要软件
es01192.168.80.100ElasticSearch
es02192.168.80.101ElasticSearch
es03192.168.80.102ElasticSearch、Kibana
nginx01192.168.80.103nginx、Logstash
NA192.168.80.104nginx、Filebeat
NA192.168.80.105Zookeeper、Kafka
NA192.168.80.106Zookeeper、Kafka
NA192.168.80.107Zookeeper、Kafka

二、配置部署 Filebeat

cd /usr/local/filebeat
 
vim filebeat.yml
注释162、164行内容
163行起添加
output.kafka:
  enabled: true
  hosts: ["192.168.80.100:9092","192.168.80.101","192.168.80.102"]  #指定 Kafka 集群配置
  topic: "nginx"    #指定 Kafka 的 topic
 
启动 filebeat
./filebeat -e -c filebeat.yml

三、配置Logstash

cd /etc/logstash/conf.d/
vim kafka.conf
input {
    kafka {
        bootstrap_server => "192.168.80.100:9092,192.168.80.101:9092,192.168.80.102:9092"
        topics => "nginx"
        type => "nginx_kafka"
        auto_offset_reset => "latest"
    }
}
 
#filter {}
 
output {
     elasticsearch {
          hosts => ["192.168.80.103:9200", "192.168.80.104:9200", "192.168.80.105:9200"]
          index => "nginx_kafka-%{+yyyy.MM.dd}"
     }
}
 
 
 
logstash -t -f kafka.conf
logstash -f kafka.conf

四、验证

浏览器访问 http://192.168.80.104:5601 登录 Kibana,单击【管理】按钮【创建索引模式】,搜

索【nginx_kafka-*】单击 【下一步】按钮创建,选择【@timestamp】 按钮,【创建索引模

式】;可查看图表信息及日志信息

 

  • 5
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值