浅谈大数据里的Kafka(4)数据可靠性保证

本文详细探讨了Kafka如何保证数据可靠性,包括acks应答机制的三种配置,如0、1、-1代表的含义,以及ISR机制在follower和leader故障时的处理方式。此外,还介绍了Kafka的幂等性特性,如何通过幂等性与At Least Once语义结合实现Exactly Once保证,以及其限制和启用方式。
摘要由CSDN通过智能技术生成

数据可靠性保证:

 为保证producer发送的数据能够可靠的发送到指定的topic,topic的每个partition收到producer发送的数据后,都需要向producer发送ack(acknowledgement确认收到,也就是应答),如果producer收到ack,就会进行下一轮的数据发送,否则重新发送数据。
 如下图:

ack发送机制方案:

 首先需要确保收到消息后节点中的follower与leader节点的数据同步完成,然后leader节点再发送ack应答给producer,这样才可以保证突发情况下leader节点挂掉了,可以再follower节点中选出新的leader。

现有两个方案:

 (1)半数以上follower完成同步,就发送ack
 (2)全部follower完成同步,就发送ack

Kafka选择了第二种方案,原因如下:
 (1)同样为了容忍n台节点的故障,第一种方案需要2n+1个副本,而第二种方案只需要n+1个副本,而Kafka的每个分区都有大量的数据,第一种方案会造成大量数据的冗余。
 (2)虽然第二种方案的网络延迟会比较高,但网络延迟对Kafka的影响较小。

ISR机制:

 采用第二种方案之后,会有以下情景:leader收到数据,所有follower都开始同步数据,但有一个follower,因为某种故障,迟迟不能与leader进行同步,那leader就要一直等下去,直到它完成同步,才能发送ack。
 针对这种情况,eader维护了一个动态的in-sync replica set (ISR),意为和leader保持同步的follower集合。当ISR中的follower完成数据的同步之后,leader就会给producer发送ack。如果follower长时间未向leader同步数据,则该follower将被踢出ISR,该时间阈值由replica.lag.time.max.ms参数设定。leader发生故障之后,就会从ISR中选举新的leader。

ack应答机制:

 对于某些不太重要的数据,对数据的可靠性要求不是很高,能够容忍数据的少量丢失,所以这种情况下没必要等ISR中的follower全部接收成功。
 所以Kafka为用户提供了三种可靠性级别,用户根据对可靠性和延迟的要求进行权衡,选择以下的配置。
  acks参数配置:
  acks:
  0:producer不等待broker的ack,这一操作提供了一个最低的延迟,broker一接收到还没有写入磁盘就已经返回,当broker故障时有可能丢失数据

  1:producer等待broker的ack,partition的leader落盘成功后返回ack,如果在follower同步成功之前leader故障,那么将会丢失数据

在这里插入图片描述

  -1(all):producer等待broker的ack,partition的leader和follower全部落盘成功后才返回ack。但是如果在follower同步完成后,broker发送ack之前,leader发生故障,那么会造成数据重复

在这里插入图片描述

故障处理细节:
在这里插入图片描述
LEO:每个副本中最后的一个Offset
HW:所有副本中最小LEO

有这么2种故障情况:
 (1)follower故障
follower发生故障后会被临时踢出ISR,待该follower恢复后,follower会读取本地磁盘记录的上次的HW,并将log文件高于HW的部分截取掉,从HW开始向leader进行同步。等该follower的LEO大于等于该Partition的HW,即follower追上leader之后,就可以重新加入ISR了。
 (2)leader故障
leader发生故障之后,会从ISR中选出一个新的leader,之后,为保证多个副本之间的数据一致性,其余的follower会先将各自的log文件高于HW的部分截掉,然后从新的leader同步数据。
注意:这只能保证副本之间的数据一致性,并不能保证数据不丢失或者不重复。

关于幂等性去重:

 将服务器的ACK级别设置为-1,可以保证Producer到Server之间不会丢失数据,即At Least Once语义。相对的,将服务器ACK级别设置为0,可以保证生产者每条消息只会被发送一次,即At Most Once语义。
 At Least Once可以保证数据不丢失,但是不能保证数据不重复;相对的,At Most Once可以保证数据不重复,但是不能保证数据不丢失。但是,对于一些非常重要的信息,比如说交易数据,下游数据消费者要求数据既不重复也不丢失,即Exactly Once语义。在0.11版本以前的Kafka,对此是无能为力的,只能保证数据不丢失,再在下游消费者对数据做全局去重。对于多个下游应用的情况,每个都需要单独做全局去重,这就对性能造成了很大影响。
 0.11版本的Kafka,引入了一项重大特性:幂等性。所谓的幂等性就是指Producer不论向Server发送多少次重复数据,Server端都只会持久化一条。幂等性结合At Least Once语义,就构成了Kafka的Exactly Once语义。即:

     At Least Once + 幂等性 = Exactly Once

 要启用幂等性,只需要将Producer的参数中enable.idompotence设置为true。Kafka的幂等性实现其实就是将原来下游需要做的去重放在了数据上游。开启幂等性的Producer在初始化的时候会被分配一个PID,发往同一Partition的消息会附带Sequence Number。而Broker端会对<PID, Partition, SeqNumber>做缓存,当具有相同主键的消息提交时,Broker只会持久化一条。
 但是PID重启就会变化,同时不同的Partition也具有不同主键,所以幂等性无法保证跨分区跨会话(Producer事务引入全局唯一的Transaction ID可以解决)的Exactly Once。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值