Kafka consumer消息的拉取及偏移的管理

消费者拉取消息并处理主要有4个步骤:

获取消费者所拉取分区的偏移位置OffsetFetchRequest(新的消息是从偏移位置开始的)
创建FetchReqeust,生成Map<Node, FetchRequest>,以消费者所拉取消息的节点为key来分组,所消费的TopicPartition的数据为value,并放入到unsent队列
调用poll方法实际发送请求给相应的node,如果返回成功,在onSecuss方法中,消息被保存在completedFetches中
从completedFetches中取出数据,转换成consumerRecord,清空缓冲区及更新消费偏移位置
偏移管理:更新拉取偏移,updateFetchPositions,发送OffsetFetchRequest请求

消费者在启动后,需要获取其所消费的分区的最后提交的偏移位置。消费者在消费完消息后需要提交消费偏移(committed offset),当发生再平衡(reblance)后,分区(partition)有可能被不同的消费者去拉取消息,那新的消费者需要知道上次是消费到哪个偏移位置的,那么新的消费者就需要发出请求给coordinator,以取得提交偏移(committed offset,前一个消费者最后的提交偏移)并更新本地的拉取偏移(fetch position)。消费者在提交偏移的时候,有2种策略可以选择,自动提交(auto commit)和手动提交(manually commit)

自动提交:

通常情况下,为了提高性能,会使用自动提交方式,自动提交的间隔(auto.commit.interval.ms)默认为5000毫秒,是通过延时队列的任务来实现的,在consumer每次拉取消息消费后,如果延时队列的auto commit task到了提交间隔时间,则提交任务更新committed offset,如果没有到延迟任务的timeout时间,则不执行延迟任务,继续拉取消息,但在实际消费处理消息后,提交偏移前,消费者有可能崩溃,这就导致存在重复消费

手动提交:

在某些场景下,为了能更准确的控制消费偏移,以保证消息不会重复消费或者不会丢失,由消费者客户端手动控制是否提交偏移

偏移与消费语义

参考:Kafka 消费语义

消息的拉取及消费

消费者如果在上一次的消息拉取过程中有消息存在,则直接返回,否则从前面更新的拉取偏移位置处重新发送拉取消息的请求。

拉取消息的请求以消费者所消费的TopicPartition所在的节点分组Map<Node, FetchRequest>,然后再通过poll到相应的节点来获取分区消息,一旦成功获取掉消息,将被保存在completedFetches,在返回时转换为按TopicPartition分组的record

Map<TopicPartition, List<ConsumerRecord<K, V>>> drained

另外,会在本地记录所消费的最后一条消息的偏移+1,在下次消费时,进行偏移检查,判断第一条记录的offset必须与这个值相等,否则则忽略

 private int append(Map<TopicPartition, List<ConsumerRecord<K, V>>> drained,
                       PartitionRecords<K, V> partitionRecords,
                       int maxRecords) {
    ......
    List<ConsumerRecord<K, V>> partRecords = partitionRecords.take(maxRecords);
    long nextOffset = partRecords.get(partRecords.size() - 1).offset() + 1; //下一条消费位置
    ......

    subscriptions.position(partitionRecords.partition, nextOffset); //记录消费的此TopicPartition的位置为nextOffset
    return partRecords.size();
    .......
  }
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要创建一个Kafka Consumer,需要执行以下步骤: 1. 导入所需的 Kafka 相关库,如 kafka-clients 和 slf4j。 2. 配置 Consumer 的属性,例如 Kafka 服务器的地址、Consumer 组 ID、是否自动提交偏移量等。 3. 创建一个 KafkaConsumer 实例,将上一步中的属性传递给它。 4. 订阅一个或多个主题,使用 KafkaConsumer 的 subscribe() 方法。 5. 循环从 Consumer消息,使用 KafkaConsumer 的 poll() 方法。 6. 处理从 Kafka消息。 下面是一个基本的 Kafka Consumer 的示例代码: ```java import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; import org.apache.kafka.common.serialization.StringDeserializer; import java.util.Collections; import java.util.Properties; public class MyKafkaConsumer { public static void main(String[] args) { // 配置 Consumer 的属性 Properties props = new Properties(); props.setProperty("bootstrap.servers", "localhost:9092"); props.setProperty("group.id", "my-group"); props.setProperty("enable.auto.commit", "true"); props.setProperty("auto.commit.interval.ms", "1000"); props.setProperty("key.deserializer", StringDeserializer.class.getName()); props.setProperty("value.deserializer", StringDeserializer.class.getName()); // 创建 KafkaConsumer 实例 KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props); // 订阅一个主题 consumer.subscribe(Collections.singletonList("my-topic")); // 循环从 Consumer消息 while (true) { ConsumerRecords<String, String> records = consumer.poll(100); // 处理从 Kafka消息 for (ConsumerRecord<String, String> record : records) { System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value()); } } } } ``` 注意,这只是一个基本的示例,实际使用中还需要考虑更多的细节和配置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值