SS00015.elasticsearch——|Hadoop&ElasticSearch集中式日志分析系统.v15|——|Elasticsearch.v15|

本文介绍了如何使用Logstash从Kafka读取数据,并将数据存储到Elasticsearch中进行集中式日志分析。首先,Logstash通过配置读取Kafka消息,然后检查Elasticsearch是否成功创建了对应索引,并验证索引下是否存在数据。此外,提供了修改Nginx配置和启动Logstash服务读取Kafka数据的步骤。
摘要由CSDN通过智能技术生成
一、Logstash读取Kafka
### --- Logstash配置文件

~~~     官网地址:https://www.elastic.co/guide/en/logstash/7.3/plugins-inputs-kafka.html
### --- 上传IP地址库

~~~     # 上传IP地址库到Datas目录下
[root@hadoop02 ~]# ll /opt/yanqi/servers/es/datas/GeoLite2-City.mmdb 
/opt/yanqi/servers/es/datas/GeoLite2-City.mmdb
二、Logstash读取kafka配置
### --- Logstash配置文件编写

~~~     # 编写logstash读取kafka数据的配置文件
[root@hadoop02 ~]# vim /opt/yanqi/servers/es/Logstash/config/logstash_kafka_es.conf
~~~     # 写入如下参数
input {
    kafka {
        bootstrap_servers => "hadoop01:9092,hadoop02:9092,hadoop03:9092"
        topics => ["nginx_access_log"]
        codec => "json"
    }
}

filter {
  if [app] == "www" {
    if [type] == "nginx-access" {
      json {
          source => "message"
          remove_field => ["message"]
      }
      geoip {
          source => "remote_addr"
          target => "geoip"
          database &
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yanqi_vip

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值