Kafka 消息重复消费问题学习

Kafka 消息重复消费原因

Kafka 消息重复消费原因

kafka每个消息写进去,都有一个offset,代表他的序号。

然后consumer消费了数据之后,每隔一段时间,会把自己消费过的消息的offset提交一下提交到zookeeper,

代表我已经消费过了,下次要是重启,你就让我继续从上次消费到的offset来继续消费吧。

 

如果因为一些死机等原因, 导致consumer有些消息处理了,但是没来得及提交offset。重启之后,这些未提交的offset的消息会再消费一次。

如何避免?

只能通过消费端 做一些消费记录 或者 限制 来避免,比如 数据库加唯一索引防止重复插入数据, 每次消费的消息ID都写入 一个Set,消费前先进行比较 等等方法。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值