【KAFKA】浅谈Kafka数据可靠性保证

首先我们知道在Kafka中

  • 一台kafka服务器就是一个broker。
  • 一个broker可以容纳多个topic。
  • 一个topic可以分为多个partition。
  • 一个partition有若干个副本(一个leader和若干个follower)。

生产者发送数据的对象,以及消费者消费数据的对象都是leader。

follower实时从leader中同步数据,保持和leader数据的同步。
leader发生故障时,某个follower会成为新的leader。

那么如何保证producer向kafka发送的数据已经被leader和follower都安全的写入到磁盘了呢?

答案是:ACK (acknowledgement确认收到)

为保证producer发送的数据,能可靠的发送到指定的topic,topic的每个partition收到producer发送的数据后,都需要向producer发送ack,如果producer收到ack,就会进行下一轮的发送,否则重新发送数据。

而Kafka也根据对数据的可靠性要求高或者低提供了三种可靠性级别

  • acks = 0 时。producer不等待broker的ack。broker一接收到还没有写入磁盘就已经返回。提高了速度,但是数据可靠性极低,当broker发生故障会丢失数据。
  • acks = 1 时。producer只等待broker中的leader的ack。当leader落盘成功发送ack后,表示数据传输完毕。效率中等,但若是此时follower还没有写入磁盘时leader故障,那么数据丢失。
  • ack = -1 时。producer等待broker中所有分区的ack。提高了可靠性,降低了速度。如果在follower同步完成后,broker发送ack之前,leader发生故障,那么会造成数据重复。

那么,当Leader发生故障或者follower发生故障长时间不与leader同步数据,kafka如何解决呢?

答案是:ISR(in-sync replica set 同步副本集)

Leader维护了一个动态的in-sync replica set (ISR),意为和leader保持同步的follower集合。当ISR中的follower完成数据的同步之后,leader就会给follower发送ack。如果follower长时间未向leader同步数据,则该follower将被踢出ISR,该时间阈值由replica.lag.time.max.ms参数设定。Leader发生故障之后,就会从ISR中选举新的leader。

在这里插入图片描述

  • leader发生故障
    leader发生故障之后,会从ISR中选出一个新的leader,之后,为保证多个副本之间的数据一致性,其余的follower会先将各自的log文件高于HW的部分截掉,然后从新的leader同步数据。
  • follower发生故障
    follower发生故障后会被临时踢出ISR,待该follower恢复后,follower会读取本地磁盘记录的上次的HW,并将log文件高于HW的部分截取掉,从HW开始向leader进行同步。等该follower的LEO大于等于该Partition的HW,即follower追上leader之后,就可以重新加入ISR了。

注意:这只能保证副本之间的数据一致性,并不能保证数据不丢失或者不重复。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值