logstash6.3.1配置

input {
 kafka {
     bootstrap_servers => "10.3.0.248:9092,10.3.0.249:9092,10.3.0.250:9092"
     client_id => "elkconsumer"
     group_id => "elkconsumergroup"
     auto_offset_reset => "latest"
     consumer_threads => 5
     decorate_events => true
     topics => ["LEK-log"]
     type => "kafka-source"
   }
}
filter {
    if [type] == "kafka-source" {
        grok {
            match => [
                "message" , "^\s*(\[(?<ticket>ticket:[0-9]+)\])?\s*\[%{TIMESTAMP_ISO8601:logtime}\]\s*\[%{IP:client_ip}\]\s*\[%{NOTSPACE:pool}\]\s*(\[[\w-]+\])?\s*\[%{LOGLEVEL:level}\s*\]\s*(\[[\w-]*?\])?\s*(\[(?<exception>(\w+\.){3,}[^\s]+)\])?",
                "message" , "^\s*\[%{IP:client_ip}\]\s*(\[(?<ticket>ticket:[0-9]+)\])?\s*\[%{TIMESTAMP_ISO8601:logtime}\]\s*\[%{NOTSPACE:pool}\]\s*(\[[\w-]+\])?\s*\[%{LOGLEVEL:level}\s*\]\s*(\[[\w-]*?\])?\s*(\[(?<exception>(\w+\.){3,}[^\s]+)\])?"
            ]
        }
        if [level] != "ERROR" { drop{}   }
        date {
            match => ["logtime", "yyyy-MM-dd HH:mm:ss.SSS"]
            target => "@timestamp"
        }
       mutate {
          add_field => {
               "logdetailpath" => "http://10.22.0.14:8080/logs/index/%{pool}/%{client_ip}/%{logtime}"
          }
        }
    } 
}
output {
   if [type] == "kafka-source" {
             elasticsearch {
                hosts => ["10.22.0.10:9200", "10.22.0.11:9200", "10.22.0.12:9200"]
                index => "logstash-pool-error-%{+yyyy.MM}"
                template_overwrite => true
             }
    }
}
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值