Kafka遇到无法消费的问题记录

Kafka服务部署情况

节点服务
masterkafka
slave1kafka
slave2kafka
slave3kafka
slave4kafka

无法消费情况

可以生产但无法消费
尝试在kafka的shell中自产自消

生产者

./kafka-console-producer.sh --broker-list ip:9092 --topic ymh

消费者

./kafka-console-consumer.sh --bootstrap-server ip:9092 --from-beginning --topic topicname

发现上述例子无法消费(生产不报错)

./kafka-topics.sh --list --zookeeper ip:2181

尝试指定partition进行消费

./kafka-console-consumer.sh --bootstrap-server ip:9092 --from-beginning --topic topicname --partition 0 (你有几个分区就尝试几次,只要有一个能消费出来就可以)

如果上述从某个分区消费出数据了证明kafka的偏移量存在问题,导致没有去分区内消费
查看topic列表

./kafka-topics.sh --list --zookeeper ip:2181

发现有一个名为__consumer_offsets的topic
把这个topic删除即可

./kafka-topics.sh --delete --zookeeper ip:2181 --topic topicname

注意如果发现是被标记为删除需要手动去zookeeper的管理端手动删除

./zkCli.sh -server ip:2181
rmr /brokers/topics/__consumer_offsets

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Kafka 在分布式消息系统中被广泛使用,但确实可能遇到重复消费问题。这种情况通常是由于以下几种原因导致的: 1. 消费者提交偏移量不准确:Kafka 使用偏移量(offset)来跟踪消费消费的位置。如果消费者提交的偏移量不准确,可能会导致重复消费。例如,消费者在处理消息后未能正确提交偏移量,或者提交的偏移量被覆盖或丢失。 2. 消费者失败和重启:如果消费者失败或重启,可能会导致它从之前的偏移量重新开始消费消息,从而导致重复消费。 3. 消费者组协调器故障:Kafka 使用消费者组(consumer group)来进行消息负载均衡和协调。如果消费者组协调器发生故障或重启,可能会导致消费者重新加入消费者组并从之前的偏移量重新开始消费,引发重复消费。 为了解决重复消费问题,可以考虑以下几个方法: 1. 使用自动提交偏移量:Kafka 提供了自动提交偏移量的选项,可以让 Kafka 自动处理偏移量的提交。这样可以降低手动提交偏移量时出错的风险。 2. 手动管理偏移量:可以在消费者代码中手动管理偏移量的提交。确保在处理完消息后,正确提交对应的偏移量。 3. 使用唯一的消费者组 ID:为每个消费者组使用唯一的 ID,这样即使发生消费者失败和重启,也能避免重复消费。 4. 设置适当的消息处理语义:Kafka 提供了不同的消息处理语义,如至少一次(at least once)和最多一次(at most once)语义。根据应用场景选择适当的消息处理语义,以满足业务需求。 总之,通过合理地管理偏移量,并采取适当的措施来处理消费者失败和重启,可以减少或避免 Kafka 中的重复消费问题

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值