kafka的 groupid 与 auto.offset.reset

前言:

通常我们消费kafka数据的时候都会设置两个参数:

Properties props = new Properties();
props.put("group.id", groupId);
props.put("auto.offset.reset", autoOffset);
  • kafka-0.10.1.X版本之前: auto.offset.reset 的值为 smallest 和 largest.(offest保存在zk中)
  • kafka-0.10.1.X版本之后: auto.offset.reset 的值更改为:earliest, latest(默认) 和 none (offest保存在kafka的一个特殊的topic名为:__consumer_offsets里面)

参数解读:

auto.offset.reset: 可理解为kafka consumer读取数据的策略,本地用的kafka版本为0.10,因此该参数可填earliest | latest | none。

  • earliest: 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
  • latest: 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
  • none: topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常

应用:

场景一:

Kafka上在实时被灌入数据,但kafka上已经积累了两天的数据,如何从最新的offset开始消费?(最新指相对于当前系统时间最新)

1.将group.id换成新的名字(相当于加入新的消费组)
2.网上文章写还要设置 properties.setProperty("auto.offset.reset", "latest”)
实验发现即使不设置这个,只要group.id是全新的,就会从最新的的offset开始消费

场景二:

kafka在实时在灌入数据,kafka上已经积累了两天的数据,如何从两天前最开始的位置消费?

1.将group.id换成新的名字
2.properties.setProperty("auto.offset.reset", "earliest”)

场景三:

不更改group.id,只是添加了properties.setProperty("auto.offset.reset", "earliest”),consumer会从两天前最开始的位置消费吗?

不会,只要不更改消费组,只会从上次消费结束的地方继续消费

场景四:

不更改group.id,只是添加了properties.setProperty("auto.offset.reset", "latest”),consumer会从距离现在最近的位置消费吗?

不会,只要不更改消费组,只会从上次消费结束的地方继续消费
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要在Spring Boot 2.x中配置Kafka 2.2.0,首先需要在项目的pom.xml文件中添加相应的依赖项。在这个例子中,我们将使用Spring Kafka来与Kafka集成: ```xml <!-- Spring Kafka --> <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>2.2.0.RELEASE</version> </dependency> ``` 添加了依赖项后,可以在Spring Boot应用程序的配置文件(application.properties或application.yml)中配置Kafka连接和相关属性。下面是一个示例的application.properties文件配置: ```properties # Kafka连接配置 spring.kafka.bootstrap-servers=localhost:9092 # 消费者配置 spring.kafka.consumer.group-id=my-group spring.kafka.consumer.auto-offset-reset=earliest # 生产者配置 spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer ``` 以上配置示例设置了Kafka的连接地址为localhost:9092,并指定了消费者和生产者的相关配置。你可以根据需要进行修改。 接下来,你可以创建Kafka消费者和生产者的相关类。这些类可以使用Spring Kafka提供的注解和模板来简化Kafka操作。下面是一个示例的Kafka消费者类: ```java import org.springframework.kafka.annotation.KafkaListener; import org.springframework.stereotype.Component; @Component public class KafkaConsumer { @KafkaListener(topics = "my-topic", groupId = "my-group") public void consume(String message) { // 处理接收到的消息 System.out.println("Received message: " + message); } } ``` 上面示例中的Kafka消费者使用了`@KafkaListener`注解来监听名为"my-topic"的Kafka主题,并将接收到的消息作为字符串进行处理。 类似地,你可以创建一个Kafka生产者类来发送消息。下面是一个示例的Kafka生产者类: ```java import org.springframework.kafka.core.KafkaTemplate; import org.springframework.stereotype.Component; @Component public class KafkaProducer { private final KafkaTemplate<String, String> kafkaTemplate; public KafkaProducer(KafkaTemplate<String, String> kafkaTemplate) { this.kafkaTemplate = kafkaTemplate; } public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); } } ``` 上面示例中的Kafka生产者使用了`KafkaTemplate`来发送消息。 现在,你已经配置了Kafka并创建了消费者和生产者类。你可以在其他的Spring Boot组件中使用这些类来实现Kafka的消费和生产操作。 请注意,这只是一个简单的示例,实际使用中可能需要更多的配置和自定义。你可以根据具体需求在项目中添加额外的配置和逻辑。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值