卡夫卡服务器自动清理,3服务器卡夫卡集群写入Logstash

的3个实例

我现在有3台服务器与此卡夫卡集群设置:3服务器卡夫卡集群写入Logstash

bin/kafka-topics.sh --create --zookeeper server1.com:2181,

server2.com:2181,server3.com:2181 --replication-factor 3 --partitions 1 --topic kafkatest3

我张贴在Server1上的CMD线这个命令并得到确认的话题是运行。 我必须在每台服务器上运行这一配置

input {

kafka

{

bootstrap_servers => "server1.com:2181,server2.com:2181,server3.com:2181"

topics => "kafkatest3"

consumer_threads => 3

#group_id => "logstash"

}

}

output

{

syslog

{

host => ["syslogserver.com"]

port => 514

}

}

我把什么与此配置不断看到logstash的一个实例是,只有一个logstash实例似乎书面方式到系统日志。另外两个人无所事事地坐在那里。

有没有办法来强制每个logstash付诸行动?我的#个分区/客户线程数是否正确?

感谢, 卡兰

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值