kafka消费端消息去重方案

本文探讨了两种常见的Kafka消费端消息去重方法:利用RedisZSet集合实现的简单去重,以及借助Flink窗口聚合进行复杂去重。后者在大数据量下可能更高效,但需考虑Redis性能影响。
摘要由CSDN通过智能技术生成

背景

我们在日常工作中,消费kafka消息是一个最常见的操作,不过由于kafka队列中经常包含重复的消息,并且消息量巨大,所以我们消费端总是需要先把消息进行去重后在消费,以减少消费端的压力,那么日常中我们一般有哪几种方案呢

kafka消费端消息去重方案

方案一:

kafka消息+redis的zset集合去重: 主要的逻辑在于使用Redis的zset数据结构进行数据去重,该方案的缺点就是需要依赖于redis的zset数据结构存放中间结果,而且如果数据量巨大,数据的重合率低时,很容易导致这个redis的zset集合变成一个大key,影响redis集群的性能

方案二:

kafka消息+flink窗口聚合去重:主要的逻辑在于使用flink进行窗口聚合,然后在聚合后的窗口中对消息进行去重,flink最后再把去重后的结果通知消费端进行消费

两种方案的示意图如下所示:
在这里插入图片描述

  • 11
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值