kafka消息丢失以及解决总结

kafka消息丢失

丢失原因:

  1. 生产者发消息给Kafka Broker。
  2. Kafka Broker 消息同步和持久化
  3. 消费者拉取消息并消费

解决办法:

1.保证生产者推送成功。

具体策略:

  1. 将ack参数设置为1。

    ack机制有三个参数:0表示不用回复。1表示消息到达leader后才回复,-1表示消息到达leader后同步到所有的ISO后进行回复。

  2. 设置失败重试次数retry = 3。

  3. 使用具有回调函数的消息推送接口(补充,失败了具体怎么处理)。

2.最大程度保证kafka集群的数据不丢失

我觉得数据只有存储到磁盘里才最安全。

  1. 将kafka落盘机制改为同步落盘。但是这代价比较大,不建议采用。

  2. 设置多个副本数,多个ISR(in-sync replica)数。

    我们当时设置的副本数是3,ISR数是2。(延伸:isr机制和raft的半同步机制和完全同步机制对比)这样可以保证一个主机宕机了还是正确进行消息推送。

  3. 然后就是打开只有ISR才能当选leader。

3.消费者不漏消费数据。

消费者漏消费数据的根本原因就是先提交了offset,但是没有成功消费到数据。

解决办法:

  1. 将自动提交改成手动提交。

    手动提交有两种一种是同步提交,它能够保证offset提交成功。但是代价是提交offset成功前,不能进行消费。另外是异步提交,不保证offset一定提交成功,所以有重复消费的风险。但是效率更快。我们项目追求的是at least once

  2. 另外将AUTO.OFFSET.RESET参数改成earlist。

    因为还有一种极端的情况可能会出现漏发:比如一个主题新增了一个分区,这个时候生产者往里面推了消息,然后消费者滞后地订阅到这个分区,如果设置成latest,那么之前的数据会消费不到。AUTO.OFFSET.RESET介绍参考我的另一篇文章

参考:

哔站视频

Kafka无消息丢失配置 | IT小栈 (itzones.cn)

kafka消息推送的三种方式和ack机制的关系

offset三种提交方式

kafka的auto.offset.reset详解与测试 - Convict - 博客园 (cnblogs.com)

线程池消费,手动提交(使用CountDownLatch)并发控制工具

延伸:

isr机制:

什么是AR、OSR、ISR、HW和LEO以及之间的关系

Kafka之分区副本与ISR机制

完全同步,过半同步和ISR机制(kafka同步机制和raft区别)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值