kafka—offset偏移量

一、offset的基本概述

offset定义:消费者再消费的过程中通过offset来记录消费数据的具体位置

offset存放的位置:从0.9版本开始,consumer默认将offset保存在Kafka一个内置的topic(系统主题)中,名为__consumer_offsets,即offset维护在系统主题中

说明:__consumer_offsets 主题里面采用 key 和 value 的方式存储数据。key 是 group.id+topic+分区号,value 就是当前 offset 的值。每隔一段时间,kafka 内部会对这个 topic 进行compact(压缩存储),也就是每个 group.id+topic+分区号就保留最新数据

1.面试题☆☆☆

问:消费者的offset维护在什么位置

答:在0.9版本之前维护在zookeeper当中,0.9版本之后维护在系统主题当中

二、自动提交offset

为了使我们能够专注于自己的业务逻辑,Kafka提供了自动提交offset的功能

自动提交offset的相关参数如下:

  • enable.auto.commit:是否开启自动提交offset功能,默认是true
  • auto.commit.interval.ms:自动提交offset的时间间隔,默认是5s
package com.kafka.consumer;

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;

import java.time.Duration;
import java.util.ArrayList;
import java.util.Properties;

/**
 * @author wangbo
 * @version 1.0
 */

/**
 * 自动提交offset
 */

public class CustomConsumer_03 {
   
    public static void main(String[] args) {
   
        //配置
        Properties properties = new Properties();

        //连接集群
        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop100:9092,hadoop102:9092");    //多写一个,避免其中一台挂掉,保证数据的可靠性

        //反序列化
        properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());
        properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());

        //配置消费者组ID 可以任意起
        properties.put(ConsumerConfig.GROUP_ID_CONFIG,"test");

        //自动提交,默认为true采用自动提交,为false则为手动提交
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,true);

        //提交时间间隔,默认为5000毫秒,即5s。我们修改为2秒
        properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,2000);

        //1.创建一个消费者 "","hello"
        KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<>(properties);

        //2.订阅主题 first3
        ArrayList<String> topics = new ArrayList<String>();
        topics.add("first3");
        kafkaConsumer.subscribe(topics);

        //3.消费数据
        while (true){
   
            ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(Duration.ofSeconds(1));//每1秒拉取一批数据

            //循环打印消费的数据 consumerRecords.for
            for (
Kafka偏移量offset)是用来标识消费者在一个特定分区中已经消费的消息的位置。Kafka提供了两种方式来存取偏移量:使用内部存储和外部存储。 1. 内部存储:Kafka内部使用一个特殊的主题(__consumer_offsets)来存储消费者的偏移量信息。每个消费者组在该主题中会有一个对应的分区来保存其消费的偏移量Kafka集群会自动维护和管理这个主题,确保偏移量的持久化和一致性。 2. 外部存储:除了使用内部存储方式,Kafka还支持将偏移量存储在外部系统中,如ZooKeeper或自定义的存储系统。在这种情况下,消费者需要自己负责管理和维护偏移量的存储和读取。 使用内部存储方式时,消费者可以通过以下步骤来存取偏移量: - 初始化消费者时,指定所属的消费者组和要消费的主题。 - 消费者在处理每条消息后,会自动将消费的偏移量提交给Kafka集群。这可以通过自动提交或手动提交来实现。 - 自动提交:消费者会定期将偏移量提交给Kafka,由Kafka集群负责管理提交的偏移量。 - 手动提交:消费者可以在适当的时机手动提交偏移量,以确保消息被正确消费。手动提交可以选择同步提交或异步提交。 使用外部存储方式时,消费者需要自己实现偏移量的存储和读取逻辑。一般情况下,消费者会使用外部存储系统提供的API来操作偏移量。 总之,Kafka提供了内部存储和外部存储两种方式来存取偏移量,可以根据实际需求选择适合的方式。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

王博1999

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值