Kafka中Consumer消费数据流程

Consumer消费数据流程

offset相关
在这里插入图片描述
Consumer从kafka的磁盘中消费数据,所以不用担心数据丢失问题。

但是,Consumer作为一个消费者,是有可能出现宕机等问题的,也就意味着会出现重启后,继续消费的问题,那么就必须要消费者偏移量,消费到哪条数据了。

结论:offset是用来记录Consumer的消费位置的,由Consumer自己负责维护(提交),保存在kafka的broker的内置topic中

# consumer重启offset机制,三个可选值,过早的offset记录会被删除。
auto.offset.reset=latest # 默认值,从最新的offset继续消费数据。

# 自动提交offset
 默认情况下Consumer的offset自动提交。


# ------------------配置参数-----------------------
# 自动提交开启
enable.auto.commit=true # 默认值
# 自动提交的时间间隔
auto.commit.interval.ms=5000 # 默认值5000 单位毫秒。```


// java配置
config.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");

# 手动提交offset
通过代码的方式手动明确offset提交的方式。
`config.put(ConsumerConfig.ENABLE_AUTO_CO``MMIT_CONFIG,"false");



// 异步提交: consumer只需要发出提交offset的指令之后,就可以继续消费数据,不需要等待本地offset是否提交成功。
//3. 消费数据
while (true){
    //JDK1.8 的API 毫秒数,
    ConsumerRecords<String, String> crs = kafkaConsumer.poll(Duration.ofMillis(100));
    for (ConsumerRecord<String, String> cr : crs) {
        System.out.println("cr = " + cr);
    }
    kafkaConsumer.commitAsync();  
}

// 同步提交: consumer提交完毕offset之后,才会继续消费数据。
while (true){
    //JDK1.8 的API 毫秒数,
    ConsumerRecords<String, String> crs = kafkaConsumer.poll(Duration.ofMillis(100));
    for (ConsumerRecord<String, String> cr : crs) {
        System.out.println("cr = " + cr);
    }
    kafkaConsumer.commitSync();
}


在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kafka是一个高性能的分布式消息系统,可以通过Win搭建来简化消息传递的管理。本文将介绍Win搭建Kafka的详细流程。 1. 安装Java环境 Kafka需要Java环境的支持,建议使用Oracle JDK 8或OpenJDK 8,安装完成之后需要配置JAVA_HOME环境变量。 2. 下载Kafka 从官网下载最新版的Kafka,解压到本地目录。 3. 修改配置文件 修改配置文件——server.properties,需要修改以下属性: - broker.id:Kafka节点的ID,唯一标识一个节点 - listeners:指定Kafka节点用于接收客户端请求的网口,使用“PLAINTEXT://hostname:port”格式 - log.dirs:Kafka存储数据的位置 - zookeeper.connect:Zookeeper的连接信息,使用“host:port”格式 4. 启动Kafka 打开cmd,进入Kafka目录下的bin文件夹,执行以下命令,启动Kafka: ./kafka-server-start.bat ../config/server.properties 5. 创建Topic 使用Kafka提供的命令行创建Topic: ./kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test 6. 发布和订阅消息 使用Kafka提供的命令行,可以向Topic发布消息,也可以从Topic订阅消息。以发布消息为例: ./kafka-console-producer.bat --broker-list localhost:9092 --topic test 执行完以上命令后,输入消息回车即可发布消息到Topic。 7. 查看消费消息 使用Kafka提供的命令行,可以从Topic查看消费消息。以查看消息为例: ./kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test --from-beginning 执行以上命令后,即可查看订阅的Topic的所有消息。 通过以上步骤,我们就成功搭建了Win上的Kafka环境,并实现了消息的发布与订阅。在实际应用,需要根据具体环境和需求进行配置和调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值