如何查看kafka消息消费进度以及是否有未消费的消息

查询是否有未消费的消息的方式有三种:

第一种,kafka自带命令

kafka的bin目录下,执行命令:

kafka-consumer-groups.sh --bootstrap-server node1:9092 --describe --group mylcy

可以看到当前的消费进度(CURRENT-OFFSET)、消息进度(LOG-END-OFFSET)、落后量(LAG):
在这里插入图片描述

第二种:JAVA API


public static Map<TopicPartition, Long> lagOf(String groupID, String bootstrapServers) throws TimeoutException {
        Properties props = new Properties();
        props.put(CommonClientConfigs.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
        try (AdminClient client = AdminClient.create(props)) {
            ListConsumerGroupOffsetsResult result = client.listConsumerGroupOffsets(groupID);
            try {
                Map<TopicPartition, OffsetAndMetadata> consumedOffsets = result.partitionsToOffsetAndMetadata().get(10, TimeUnit.SECONDS);
                props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false); // 禁止自动提交位移
                props.put(ConsumerConfig.GROUP_ID_CONFIG, groupID);
                props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
                props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
                try (final KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props)) {
                    Map<TopicPartition, Long> endOffsets = consumer.endOffsets(consumedOffsets.keySet());
                    return endOffsets.entrySet().stream().collect(Collectors.toMap(entry -> entry.getKey(),
                            entry -> entry.getValue() - consumedOffsets.get(entry.getKey()).offset()));
                }
            } catch (InterruptedException e) {
                Thread.currentThread().interrupt();
                // 处理中断异常
                // ...
                return Collections.emptyMap();
            } catch (ExecutionException e) {
                // 处理ExecutionException
                // ...
                return Collections.emptyMap();
            } catch (TimeoutException e) {
                throw new TimeoutException("Timed out when getting lag for consumer group " + groupID);
            }
        }
    }

第三种 jmx监控

JConsole 工具监控此 JMX 指标的截图。从这张图片中,可以看到,client-id 为 consumer-1 的消费者在给定的测量周期内最大的 Lag 值为 714202,最小的 Lead 值是 83,这说明此消费者有很大的消费滞后性。

在这里插入图片描述

监控到 Lag 越来越大,说明消费者程序变得越来越慢了,至少是追不上生产者程序了。

一旦你监测到 Lead 越来越小,甚至是快接近于 0 了,你就一定要小心了,这可能预示着消费者端要丢消息了(因为消息只保存七天,说明消息已经接近7天未被消费)。

  • 8
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
是的,Flink 可以帮助你查看 Kafka 消费进度。通过使用 Flink 的 Kafka Consumer,你可以获取当前消费者组在每个 Kafka 分区上的偏移量信息,并据此计算消费进度。 以下是一种获取 Kafka 消费进度的方法: 1. 在 Flink 中使用 Kafka Consumer 来消费 Kafka 数据。你可以使用 Flink 提供的 `FlinkKafkaConsumer` 或 `FlinkKafkaConsumerBase` 类来创建 Kafka Consumer。 2. 获取 Kafka 消费者的偏移量信息。通过调用 Kafka Consumer 的 `KafkaConsumer#getPositions()` 方法,你可以获得当前消费者组在每个分区上的偏移量。 ```java // 创建 Kafka Consumer FlinkKafkaConsumer<String> consumer = new FlinkKafkaConsumer<>("topic", new SimpleStringSchema(), properties); // 获取消费者组在每个分区上的偏移量 Map<KafkaTopicPartition, Long> positions = consumer.getKafkaConsumer().getPositions(consumer.getSubscribedPartitions()); ``` 3. 根据偏移量信息计算消费进度。根据每个分区的当前偏移量和分区的末尾偏移量,可以计算出每个分区的消费进度。然后,你可以根据自己的需求,将这些进度信息打印出来或存储到外部系统中。 请注意,获取偏移量信息和计算消费进度需要在 Flink 作业运行时进行。你可以在 Flink 作业中的适当位置(例如 `open()` 方法或 `processElement()` 方法)执行这些操作,以便能够及时地获取最新的偏移量信息和进度。 通过这种方式,你可以方便地查看 Flink 消费 Kafka进度,并了解每个分区的消费情况。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据男

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值