Kafka学习笔记(五):消费者偏移量提交、独立消费者、再均衡监听器以及消费者对重复消费、消息丢失问题的解决

再均衡的概念以及触发的情况都在上一篇文章中做了说明。再均衡的执行过程是造成重复消费、消息丢失的主要原因。另外消费者偏移量如何提交,如何保证再均衡后,消费者能够从上次执行到的偏移量开始消费,防止重复消费和丢失问题,都将在这篇文章中体现。

接下来书写的基本思路:知道消费者提交偏移量到Kafka的几种方式、再均衡监听器、再均衡监听器配合消费者提交机制做到不丢失消息也不重复消费的解决方案。最后说一下独立消费者的使用。

消费者偏移量提交

自动提交

自动提交配置参数enable.auto.commit,默认值是true,表示默认支持自动提交。如果需要指定提交间隔时间,就需要配置auto.commit.interval.ms参数,默认是5秒。

消费者使用poll()方法轮询去Kafka中拉取消息数据,同时消费者会有一个异步的线程在定时的向Kafka提交消费者的偏移量,这个偏移量是poll()最后一次拉取的偏移量。这样是存在问题的。

假设A消费者消费0分区,当A消费者上次提交偏移量是30000,在后续的3秒又执行了三次poll()操作,每次拉取1000条数据,当时间间隔还没到5秒,后续拉取的数据偏移量就不会提交给Kafka,这个时候如果出现再均衡操作,原来的0分区被分配给了B消费者,这个时候B消费者会根据0分区记录的消费偏移量开始消费,这个时候就会造成A消费者已消费且没有来得及提交偏移量的部分被B重复消费。

同步手动提交

使用手动提交的时候,需要将自动提交关闭,把enable.auto.commit值设备为false即可。下面的异步手动提交也是一样要关闭。

在执行业务代码中直接调用commitSync()方法执行提交偏移量操作,此方法是阻塞的,需要等待Kafka的响应,如果成功直接返回结果,如果失败会抛出异常信息。如果每消费一条消息提交一次,可以防止重复消费问题,但是会对性能造成巨大的消耗,如果等消费一批(比如消费20条)提交一次,这样同样会造成重复消费问题。

异步手动提交

异步提交调用commitAsync()方法,不阻塞,异步执行提交操作,但是还是存在问题。如现在第一次提交偏移量是2000没有成功,会进行重新发送,在重新发送之前又发生了一次异步提交操作,此时是成功的,提交的偏移量是2100,此时上一个重新发送的提交也成功了,把最新的偏移量重置成了2000,如果在这个时刻发生了再均衡就可能导致2000到2100中间的100条消息被重复消费。

基本的提交方式就是这三种,还有其他的提交方式都是由这三种方式组合,但是重复消费和消息丢失都是会出现的。上面因为提交导致的都是消息重复消费,消息丢失什么时候会发生呢?

消息丢失:假设A消费者poll()拉取了1000条记录,此时刚好提交偏移量的时间到了,将最新的1000偏移量提交给Kafka,但是此时A消费者拉取的数据还未消费结束就异常退出。此时其他消费者接盘这个分区的消费任务,就会从1000偏移量开始消费,导致A消费者未消费完的数据丢失,没有被消费。

再均衡监听器

消费者群组在进行再均衡操作的时候会通知群组成员,当群组成员执行下一次拉取的时候就会触发再均衡监听器的onPartitionsRevoked方法,待群组中所有成员执行完此方法后才真正进入再均衡操作。再均衡操作结束后,所有群组成员会执行onPartitionsAssigned方法。在业务操作中就可以利用这两个方法来实现再均衡前做分区、偏移量持久化逻辑,以及再均衡后从指定偏移量开始读取消息数据操作。但是如何使用呢?

先看一下自定义再均衡器监听器的实现方式:

//实现ConsumerRebalanceListener接口
public class SelfRebalance implements ConsumerRebalanceListener {

    //rebalance开始前执行的逻辑
    @Override
    public void onPartitionsRevoked(Collection<TopicPartition> collection) {
        System.out.println("再均衡执行前逻辑……");
    }

    @Override
    public void onPartitionsAssigned(Collection<TopicPartition> collection) {
        System.out.println("再均衡完成后执行逻辑……");
    }
}

实现的两个接口很简单,关键是看怎么去用。在Consumer订阅的时候,指定需要使用的再均衡监听器。(如果在订阅的时候没有指定再均衡监听器,会默认指定NoOpConsumerRebalanceListener,这个类实现了ConsumerRebalanceListener接口,但是没有对内部方法做具体的实现,空方法!)

Consumer订阅时指定再均衡监听器:

consumer.subscribe(Collections.singleton("self-rebalance-listener"), new SelfRebalance());

重复消费和消息丢失解决方案

数据安全和性能是对立的,需要安全就要在性能上做出让步。对于Kafka也是一样,如果需要做到不能有一条数据丢失、一条数据重复消费,那么就需要投入大量的数据安全处理逻辑,进而导致性能的下降,降低Kafka本身的吞吐量。如果这个时候还要求大的吞吐量,就需要横向拓展增加分区数量和消费者数量啦。

但是在使用Kafka之前就应该考虑到Kafka存在这方面的问题。因为Kafka主要致力于做大数据的吞吐量。如日志埋点,分析用户行为,定向推送,千人千面。这个时候要保证吞吐量,就需要能够接受再均衡时引起的部分数据重复消费或者丢失问题。

虽然说很多情况下是可以接受重复消费和消息丢失问题,但是保证数据尽可能的安全是必须的。下面来说一下我的思路。具体实现代码不写,用伪代码代替。

生产者代码就不写了,这里主要说的是消费者。先看一下消费者的伪代码。

public static void main(String[] args) throws Exception {
    //配置信息
    Properties properties = new Properties();
    properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "127.0.0.1:9092");//Kafka服务地址
    properties.put(ConsumerConfig.GROUP_ID_CONFIG, "groupE");//组名
    properties.put(ConsumerConfig.FETCH_MIN_BYTES_CONFIG, 10240);//拉取的最小字节数
    properties.put(ConsumerConfig.FETCH_MAX_WAIT_MS_CONFIG, 3000);//拉取的最大等待时间
    properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);//关闭自动提交
    properties = ConsumerConfig.addDeserializerToConfig
            (properties, new StringDeserializer(), new StringDeserializer());//指定key、value序列化器

    //JDK7推出的功能,将consumer构建放到try上,可以实现自动关闭consumer功能
    try (KafkaConsumer<String, String> consumer = new KafkaConsumer<>(properties)) {
        //这里是订阅一个主题,实际可能会是多个
        consumer.subscribe(Collections.singleton("self-rebalance-listener"), new SelfRebalance());
        //轮询拉取数据
        while (true) {
            //每次拉取一定量的数据,具体数据量根据生产者生产的速度、拉取的最小字节数、拉取的最大等待时间决定
            ConsumerRecords<String, String> records = consumer.poll(500);
            //start------------开始消费
            int i = 0;
            for (ConsumerRecord<String, String> record : records) {
                System.out.println("client1-topic:" + record.topic()
                        + ",client1-partition:" + record.partition() + ",client1-offset:" + record.offset());
                Thread.sleep(100);//每条记录处理需要100毫秒
                if ((++i % 10) == 0) {//每处理10条数据提交一次
                    //将偏移量缓存到Redis中或者持久化到数据库中
                    //将偏移量手动提交一次,consumer.commitSync(……);
                }
            }
            if ((i % 10) != 0) { //for循环内是每10条提交一次,防止最后一此循环不满10条,漏提交,在循环外再检查一次
                //将偏移量缓存到Redis中或者持久化到数据库中
                //将偏移量手动提交一次,consumer.commitSync(……);
            }
            //end------------结束消费
        }
    }
}

代码里面注释写的很详细,就不多做赘述,但是有几个注意的点需要稍微说一下。

  • 指定拉取的最小字节数和拉取的最大等待时间,这个是为了每次拉取数据都是批量的,如果使用默认值,就是有一条拉取一条
  • 在消费消息的过程中,使用手动提交操作,在配置的时候需要将自动提交功能设置为false,关闭自动提交
  • 开始消费和结束消费做了特殊标志,这里可以考虑事务,保证消费数据入库、偏移量入库、手动提交三步操作原子化和保持数据的一致性
  • 在消费的逻辑中采用每处理完10条,提交一次,降低持久化、提交频次,从而降低性能的消耗和资源浪费

消费者代码已经完成,还需要看一下再均衡监听器的代码,这个也是很重要的部分。

public class SelfRebalance implements ConsumerRebalanceListener {

    @Override
    public void onPartitionsRevoked(Collection<TopicPartition> collection) {
        //将最终缓存或者持久化的偏移量提交给Kafka服务
    }
    @Override
    public void onPartitionsAssigned(Collection<TopicPartition> collection) {
        //通过collection可以获取再均衡后,此消费者被的主题和分区
        //根据分配到的主题和分区,到数据库或者缓存内拿取再均衡前对应的偏移量
        //根据获取的分区和偏移量信息,让消费者从该偏移量开始消费,使用Consumer的seek(……)方法
    }
}
  • onPartitionsRevoked可以做的事情远不止持久化偏移量、提交最终偏移量到Kafka这些,可以根据自身的业务做适当的调整。
  • 再均衡结束后,会将新分配的主题、分区信息放到onPartitionsAssigned方法的参数上,可以根据被分配得的主题、分区信息到缓存或者持久化信息中找到对应的偏移量信息,然后让consumer从特定的位置开始消费
  • 还有一点需要特别注意,那就是再均衡执行的过程。如下:
    • 再均衡操作通知到消费者群组成员
    • 消费者成员执行下一次poll()方法才会接收到再均衡操作通知信息
    • poll()不会再拉取数据而是触发再均衡监听器onPartitionsRevoked方法(注意:如果上一次拉取1000条数据,消费到500条,有再均衡操作通知,此时当前这个消费者对这个通知是没有感知的,当剩下500条数据都执行结束,调用poll()拉取下一批数据时才会感知到再均衡通知,此时不会执行拉取动作,而是触发再均衡监听器)
    • 先执行完先进入再均衡等待状态,此时不会接收消息,待所有消费者成员都进入再均衡等待(消费者间有一个互相等待机制)
    • 执行具体再均衡操作
    • 将再均衡分配结果发送到所有群组成员,触发onPartitionsAssigned方法
    • onPartitionsAssigned方法执行结束后,每个消费者对应的主题、分区信息可能会发生变化,再拉取数据就会以新分配的主题、分区信息拉取(此时消费者群组成员没有互相等待机制,谁先执行完,谁先进入正常的拉取数据,消费数据操作)

通过这个解决方案就可以解决重复消费和重复提交的问题,即使是处理出现异常、或者消费者异常退出,也不会造成消息消息丢失问题。增加事务、增加偏移量持久化、增加手动提交等逻辑,都是拉低消费者消费效率、提高性能消耗的问题点。

独立消费者

之前的demo中,写消费者的时候都会加入一个群组信息配置,如果现在有一个消费想单独成体,不与其他消费者组成群组,可以根据自己的需求去消费指定主题、指定分区的消息。那么怎么实现呢?其实并不难,看一下下面的代码:

public static void main(String[] args) {
    //配置信息
    Properties properties = new Properties();
    properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "127.0.0.1:9092");//Kafka服务地址
    properties = ConsumerConfig.addDeserializerToConfig
            (properties, new StringDeserializer(), new StringDeserializer());//指定key、value序列化器
    try (KafkaConsumer<String, String> consumer = new KafkaConsumer<>(properties)) {
        //获取指定主题的分区信息
        List<PartitionInfo> partitionInfos = consumer.partitionsFor("self-rebalance-listener");
        List<TopicPartition> topicPartitions = Lists.newArrayList();
        if (CollectionUtils.isNotEmpty(partitionInfos)) {
            //这里可以根据实际业务需求,消费指定分区信息
            partitionInfos.forEach(part ->
                    topicPartitions.add(new TopicPartition(part.topic(), part.partition()))
            );
        }
        consumer.assign(topicPartitions);//订阅指定分区
        //轮询拉取数据
        while (true) {
            ConsumerRecords<String, String> records = consumer.poll(500);
            for (ConsumerRecord<String, String> record : records) {
                System.out.println("client1-topic:" + record.topic()
                        + ",client1-partition:" + record.partition() + ",client1-offset:" + record.offset());
            }
        }
    }
}
  • 在配置信息里面不添加分组信息
  • 在订阅的时候先根据主题获取主题下分区信息,然后根据业务需求订阅指定的分区

实现过程很简单,其他不多做赘述。

源码

码云(gitee):https://gitee.com/itcrud/itcrud-note/tree/master/itcrud-note-1-3

重复消费和消息丢失解决方案以及自定义再均衡监听器:com.itcrud.kafka.selfrebalance包内!!!

独立消费者:com.itcrud.kafka.independentconsumer包内!!!

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
要查看 Kafka 消费者组未提交偏移量问题所在,可以通过以下方式进行调查和调整: 1. 检查消费者提交偏移量的代码:首先,确认消费者组的代码中是否正确执行了偏移量提交操作。在消费者代码中,通常会有一个方法用于提交偏移量,例如`commitSync()`或`commitAsync()`。确保在适当的位置调用了这些方法。如果没有正确提交偏移量,可以在代码中添加相应的提交逻辑。 2. 检查消费者组配置:检查消费者组的相关配置项。比如,`enable.auto.commit`配置项用于控制是否自动提交偏移量,默认为开启状态。如果设置为自动提交,确保其时间间隔不会导致偏移量长时间不提交。如果设置为手动提交,则需要在适当的时机手动调用提交偏移量的方法。 3. 检查消费者偏移量存储方式:Kafka 提供了多种方式来存储消费者组的偏移量,如 Kafka 内部存储、Zookeeper 存储或外部存储系统。确认消费者组的偏移量存储方式是否正确配置,并且存储方式是否正常工作。 4. 检查消费者组与分区的关系:确保消费者组与分区的关系正确。一个分区只能由一个消费者组中的一个消费者进行消费。如果消费者组中的消费者数量多于分区数量,会导致部分消费者无法获得分配到的分区,从而无法提交偏移量。可以通过增加分区数或减少消费者数量来调整这种情况。 5. 调整消费者组的偏移量重置策略:如果消费者组的偏移量已经被提交,但数据仍然没有被消费,可以尝试调整消费者组的偏移量重置策略。重置策略可以配置为从最早的偏移量开始消费或从最新的偏移量开始消费。可以根据需求选择适当的重置策略来消费积压的数据。 通过以上方法,您可以查找并调整 Kafka 消费者组未提交偏移量问题。希望对您有所帮助!如果还有其他问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序猿洞晓

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值