Logstash5.6.1-Kafka插件配置

output {
    elasticsearch {
        hosts => ["host1:9200","host2:9200","host3:9200"]
        index => "logstash-%{type}-%{+YYYY.MM.dd}"
        document_type => "%{type}"
        workers => 1
        flush_size => 10
        idle_flush_time => 10
        template_overwrite => true
    }

kafka {
codec => plain {
format => "%{message}"
}
topic_id => "mytopic"
bootstrap_servers => "kfka1:9092,kafka2:9092"batch_size => "16384"
compression_type => "gzip"
linger_ms => "1000"
reconnect_backoff_ms => "10000"
buffer_memory => "33554432"
key_serializer => "org.apache.kafka.common.serialization.IntegerSerializer"
value_serializer => "org.apache.kafka.common.serialization.StringSerializer"
}
   
}

网上转了一圈,有的配置是很早期的版本,在最新版里面没法用,于是我从官网看了下说明做了个最新的配置

这里基于kafka0.11,client-0.10.2,es5.6.1,logstash5.6.1 已经正常在跑

转载于:https://www.cnblogs.com/fangyuan303687320/p/7741941.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值