记录:kafka-clients adminClient.listConsumerGroups不能获得kafka中kafka-consumer-groups.sh查询到的所有GroupID

Kafka adminClientkafka-consumer-groups.sh 使用的查询 Consumer Group 的 API 不同所致。

adminClient 使用的是 Admin API,需要连接到 Broker 进行查询。而 kafka-consumer-groups.sh 使用的是 Consumer Group Command API,直接查询 Zookeeper 中存储的 Consumer Group 信息。
由于历史原因,Kafka 的 Consumer Group 信息存储在 Zookeeper 中,API 层进行了封装,通过 Admin API 与 Consumer Group Command API 提供查询接口。但两者查询的信息可能存在差异,导致 listConsumerGroups() 获得的 Group 信息不完整。

要解决此问题,有以下几个思路:

  1. 使用 Consumer Group Command API 进行查询 可以使用 kafka-consumer-groups.sh 工具查询,或使用 Confluent Kafka Client 的 ConsumerGroupCommand API 进行查询。
  2. 检查 ACL 配置 如果 ACL 策略过于严格,adminClient 可能无法查询到全部 Consumer Group 信息,需要调整 ACL 策略。
  3. 等待数据同步 Consumer Group 信息首先写入 Zookeeper,然后同步至 Kafka。如果同步存在延迟,adminClient 查询 Kafka 时可能获得不完整信息。等待一段时间后再查询可能会解决此问题。
  4. 直接查询 Zookeeper 可以连接至 Zookeeper,查询 /consumers path 下保存的 Consumer Group 信息。但此方法需要了解 Zookeeper 中 Kafka 数据结构,较难实现。 所以,建议优先使用 Consumer
    Group Command API 进行查询,或检查 ACL 策略,确保 adminClient 有足够权限查询 Consumer
    Group 信息。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
你可以使用 Kafka 的 Java API 来实现这个命令,具体实现如下: ```java import org.apache.kafka.clients.admin.AdminClient; import org.apache.kafka.clients.admin.AdminClientConfig; import org.apache.kafka.clients.admin.ConsumerGroupDescription; import org.apache.kafka.clients.admin.ConsumerGroupListing; import org.apache.kafka.clients.admin.ListConsumerGroupOffsetsResult; import org.apache.kafka.clients.admin.ListConsumerGroupsResult; import org.apache.kafka.clients.admin.ListOffsetsResult; import org.apache.kafka.clients.admin.OffsetSpec; import org.apache.kafka.clients.admin.TopicDescription; import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.KafkaConsumer; import org.apache.kafka.common.TopicPartition; import org.apache.kafka.common.serialization.StringDeserializer; import java.time.Duration; import java.util.Collections; import java.util.Map; import java.util.Properties; import java.util.Set; import java.util.concurrent.ExecutionException; public class KafkaConsumerGroups { public static void main(String[] args) throws ExecutionException, InterruptedException { Properties adminProps = new Properties(); adminProps.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092"); AdminClient adminClient = AdminClient.create(adminProps); // List Consumer Groups ListConsumerGroupsResult consumerGroupsResult = adminClient.listConsumerGroups(); Set<ConsumerGroupListing> consumerGroups = consumerGroupsResult.all().get(); for (ConsumerGroupListing group : consumerGroups) { System.out.println("Consumer Group: " + group.groupId()); // Describe Consumer Group ConsumerGroupDescription consumerGroupDescription = adminClient.describeConsumerGroups(Collections.singleton(group.groupId())).all().get().get(group.groupId()); System.out.println("State: " + consumerGroupDescription.state()); System.out.println("Coordinator: " + consumerGroupDescription.coordinator().toString()); System.out.println("Members: " + consumerGroupDescription.members().size()); System.out.println("Topic Partitions:"); Map<String, TopicDescription> topicDescriptions = adminClient.describeTopics(consumerGroupDescription.members().stream().map(member -> member.assignment().topicPartitions().iterator().next().topic()).distinct().toArray(String[]::new)).all().get(); for (TopicDescription topicDescription : topicDescriptions.values()) { for (TopicPartition partition : topicDescription.partitions()) { System.out.println("\t" + topicDescription.name() + "-" + partition.partition() + ": " + consumerGroupDescription.assignment().partitionsForTopic(topicDescription.name()).contains(partition)); } } // List Consumer Group Offsets ListConsumerGroupOffsetsResult consumerGroupOffsetsResult = adminClient.listConsumerGroupOffsets(group.groupId()); Map<TopicPartition, Long> consumerGroupOffsets = consumerGroupOffsetsResult.partitionsToOffsetAndMetadata().get(); System.out.println("Consumer Group Offsets:"); for (Map.Entry<TopicPartition, Long> entry : consumerGroupOffsets.entrySet()) { System.out.println("\t" + entry.getKey().topic() + "-" + entry.getKey().partition() + ": " + entry.getValue()); } // List Latest Offsets Properties consumerProps = new Properties(); consumerProps.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092"); consumerProps.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false"); consumerProps.put(ConsumerConfig.GROUP_ID_CONFIG, group.groupId()); consumerProps.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class); consumerProps.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class); KafkaConsumer<String, String> consumer = new KafkaConsumer<>(consumerProps); Map<TopicPartition, Long> latestOffsets = consumer.endOffsets(consumerGroupOffsets.keySet(), Duration.ofSeconds(5)); System.out.println("Latest Offsets:"); for (Map.Entry<TopicPartition, Long> entry : latestOffsets.entrySet()) { System.out.println("\t" + entry.getKey().topic() + "-" + entry.getKey().partition() + ": " + entry.getValue()); } // List Earliest Offsets Map<TopicPartition, Long> earliestOffsets = consumer.beginningOffsets(consumerGroupOffsets.keySet(), Duration.ofSeconds(5)); System.out.println("Earliest Offsets:"); for (Map.Entry<TopicPartition, Long> entry : earliestOffsets.entrySet()) { System.out.println("\t" + entry.getKey().topic() + "-" + entry.getKey().partition() + ": " + entry.getValue()); } } } } ``` 这个程序使用 KafkaAdminClient 来获取消费者组信息、消费者组偏移量以及主题分区的最早和最新偏移量。你可以根据自己的需求修改程序,例如只获取特定的消费者组信息等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值