kafka消息避免重复消费--通过uuid来实现

在什么情况下会出现消息重复消费?
一般来说,重复消费会在两种情况下出现。
1.消息在发往a机器后,再次发往b机器,导致消费两次。
2.消息往a机器发两次。
怎么处理?
对于第一种情况,只需要根据数据的特点做对应的分区即可,保证该类型的消息只会往a机器发送

KafkaListSender<Journal> sender = new KafkaListSender<>(KafkaTopicConfig.getTopic(companyId, KafkaTopicConfig.TopicKey.Journal), KafkaTopicConfig.TopicKey.Journal.getKey(), (journal) -> {
                        String key = String.valueOf(defaultCrossId == journal.getDebit_account_id() ? journal.getCredit_account_id(): journal.getDebit_account_id());
                        return key;
                    });

对于第二种情况时有uuid即可解决
这个uuid应该存放在哪里?
有必要存在入redis吗,没有必要。
一般来说,journal会出现重复消费只会在消息发送的第一次消费过程中,超过一定时间之后,很难再出现这个问题。因此只需要保证在一批消息过来时不会出现重复消费即可。
该uuid在方法内作为局部变量即可。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kafka消息重复消费问题,可以通过以下几种方法来避免: 1. Consumer group机制:Kafka通过consumer group机制来保证同一个分区内的消息只会被同一个消费者组的一个消费消费。因此,如果在同一个消费者组中,同一条消息只会被消费一次。 2. 自动提交offset:Kafka提供了自动提交offset的机制,可以在消息被处理后自动将offset提交给Kafka。这样可以确保消息不会被重复消费,因为Kafka会记住每个消费消费的offset,一旦消费者重启,就可以从上一次提交的offset继续消费。 3. 手动提交offset:手动提交offset是另一种避免消息重复消费的方法。在处理完一批消息后,消费者可以手动将offset提交给Kafka,这样可以确保下一次消费者从正确的位置开始消费。 4. 使用消息去重:在消费者端可以使用消息去重的方法,比如将消息ID保存在Redis中,每次消费时先判断Redis中是否已经存在该消息ID,如果存在,则跳过该消息,否则处理该消息。 5. 使用事务机制:Kafka提供了事务机制,可以将消息消费和业务处理放在一个事务中,如果消息消费失败,则整个事务回滚,保证消息不会被重复消费。 总之,避免Kafka消息重复消费的关键在于正确使用consumer group机制、手动/自动提交offset、消息去重和事务机制等方法,具体方法需要根据实际业务场景进行选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值