Kafka如何保证消息可靠性和一致性

Kafka如何保证消息可靠性和一致性

  1. 生产者数据的不丢失
    kafka 的 ack 机制:在 kafka 发送数据的时候,每次发送消息都会有一个确认反馈机制,确保消息正常的能够被收到。

  2. 消费者数据的不丢失
    通过 offset commit 来保证数据的不丢失,kafka 自己记录了每次消费的 offset 数值,下次继续消费的时候,接着上次的 offset 进行消费即可。

  3. 保存的数据不丢失
    kafka按照partition保存, 数据可以保存多个副本 , 副本中有一个副本是 Leader,其余的副本是 follower , follower会定期的同步leader的数据
    要保证在leader挂了之后数据一致性 , 在Leader挂了,在新Leader上数据依然可以被客户端读到
    这就要通过一个HighWater 机制 , 每个分区的 leader 会维护一个 ISR 列表 , ISR 列表里面就是 follower 副本的 Borker 编号, 只有跟得上 Leader 的 follower 副本才能加入到 ISR 里面, 只有所有ISR列表都同步的数据才能被comsumer读取 , High Water机制取决于 ISR 列表里面偏移量最小的分区 , 类似木桶原理
    在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值