kafka消费者offset记录位置和方式

1. 前言

kafka消费者在会保存其消费的进度,也就是offset,存储的位置根据选用的kafka-api不同而不同。

2. zookeeper存储

首先来说说消费者如果是根据java-api来消费,也就是kafka.javaapi.consumer.ConsumerConnector,通过配置参数zookeeper.connect来消费。这种情况下,消费者的offset会更新到zookeeper的consumers/{group}/offsets/{topic}/{partition}目录下,例如:

[zk: 100.5.14.161:2181(CONNECTED) 20] get /consumers/console-consumer-21030/offsets/topic_test_1/0
37
cZxid = 0x50000053a
ctime = Thu Dec 20 17:26:58 CST 2018
mZxid = 0x50000053a
mtime = Thu Dec 20 17:26:58 CST 2018
pZxid = 0x50000053a
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 2
numChildren = 0

3. kafka topic存储

如果是根据kafka默认的api来消费,即org.apache.kafka.clients.consumer.KafkaConsumer,我们会配置参数bootstrap.servers来消费。而其消费者的offset会更新到一个kafka自带的topic:__consumer_offsets下面,查看当前group的消费进度,则要依靠kafka自带的工具kafka-consumer-offset-checker,例如:

[2018-12-25 11:48:10,163] WARN WARNING: ConsumerOffsetChecker is deprecated and will be dropped in releases following 0.9.0. Use ConsumerGroupCommand instead. (kafka.tools.ConsumerOffsetChecker$)
Group           Topic                          Pid Offset          logSize         Lag             Owner
test_group_1    topic_test_1                   0   489             491             2               none
test_group_1    topic_test_1                   1   489             490             1               none
test_group_1    topic_test_1                   2   490             491             1               none

4. offset更新方式

offset更新的方式,不区分是用的哪种api,大致分为两类:

  • 自动提交,设置enable.auto.commit=true,更新的频率根据参数【auto.commit.interval.ms】来定。这种方式也被称为【at most once】,fetch到消息后就可以更新offset,无论是否消费成功。
  • 手动提交,设置enable.auto.commit=false,这种方式称为【at least once】。fetch到消息后,等消费完成再调用方法【consumer.commitSync()】,手动更新offset;如果消费失败,则offset也不会更新,此条消息会被重复消费一次。

参考: https://blog.csdn.net/u013063153/article/details/78122088
  • 1
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Kafka是一种分布式流处理平台,可用于构建实时数据管道和流处理应用程序。Kafka消费者参数是指在消费者端配置的一些参数,用于控制消费者的行为和性能。 首先,消费者需要指定要消费的主题。可以通过设置"bootstrap.servers"参数来指定Kafka集群的地址。消费者还可以通过设置"group.id"参数来指定消费者所在的消费组,以便和其他消费者进行协调分配分区。 其次,消费者需要设置"auto.offset.reset"参数来控制消费者在启动时如何处理已提交的偏移量。可以设置为"earliest",表示从最早的可用偏移量开始消费;或者设置为"latest",表示从最新的偏移量开始消费。 还有一些其他的消费者参数可以配置。比如,可以设置"max.poll.records"参数来控制每次拉取的最大记录数;设置"enable.auto.commit"参数来控制消费者是否自动提交偏移量;设置"auto.commit.interval.ms"参数来控制自动提交偏移量的间隔时间。 此外,消费者还可以通过设置一些性能参数来优化消费者的性能。比如,可以设置"fetch.min.bytes"参数来控制每次拉取的最小字节数,以减少网络请求的频率;设置"max.partition.fetch.bytes"参数来控制每个分区每次拉取的最大字节数;设置"fetch.max.wait.ms"参数来控制拉取请求的等待时间。 最后,消费者还可以设置一些安全相关的参数,比如设置"security.protocol"参数来指定连接到Kafka集群时使用的安全协议。 综上所述,Kafka消费者参数的配置可以根据实际需求来设置,以提供更好的性能和可靠性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值