Kafka学习笔记(六)· 稳定性

七、稳定性

kafka的消息传输保障机制非常直观。当producer向broker发送消息时,一旦这条消息被commit,由于副本机制(replication)的存在,他就不会丢失。但是如果producer发送数据给broker后,遇到的网络问题而造成通信中断,那producer就无法判断该条消息是否已经提交(commit)。虽然kafka无法确定网络故障期间发生了什么,但是producer可以retry多次,确保消息已经正确传输到broker中,所以目前kafka实现的是at least once

1、幂等性

场景

所谓幂等性,就是对接口的多次调用所产生的结果喝调用一次是一致的。生产者在进行重试的时候有可能会重复写入消息,而使用kafka的幂等性功能就可以避免这种情况。

幂等性是有条件的:

  • 只能保证Producer在单个会话内不丢不重,如果Producer出现意外挂掉在重启是无法保证的(幂等性情况下,是无法获取之前的状态信息,因此是无法做到跨会话级别的不丢不重);
  • 幂等性不能跨多个Topic-Partition,只能保证单个partition内的幂等性,当涉及多个Topic-Partition时,这中间的状态并没有同步。

Producer使用幂等性的示例非常简单,与正常情况下Producer使用相比变化不大,只需要把Producer的配置enable.idempotence设置为true即可,如下所示:

Properties props =new Properties();
props.put(ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG,"true");
props.put("acks","all");	//当enable.idempotence为 true 时,这里默认为all
props.put("bootstrap.servers","localhost:9092");
props.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");

KfakaProdicer producer = new KafkaProducer(props);
producer.send(new ProducerRecord(topic,"test"));

2、事务

场景

幂等性并不能跨多个分区运作,而事务可以弥补这个缺憾,事务可以保证对多个分区写入操作的原子性。操作的原子性是指多个操作要么全部成功,要么全部失败,不存在部分成功部分失败的可能。

为了实现事务,应用程序必须提供唯一的transactionalId,这个参数通过客户端程序来进行设定。

props.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG,transactionId);

前期准备

事务要求生产者开启幂等性特性,因此通过将transactional.id参数设置为非空从而开启事务特性的同时需要将ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG设置为true(默认值为true),如果显示设置为false,则会抛出异常。

KafkaProducer提供了5个与事务相关的方法,详细如下:

//初始化事务,前提是配置了transactionalId
public voidd initTransactions()
//开启事务
public void beginTransaction()
//为消费者提供事务内的位移提交操作
public void sendOffsetsToTransaction(Map<TopicPAttition,OffsetAndMetadata> offsets,String consumerGroupId)
//提交事务
public void commitTransaction()
//终止事务,类似于回滚
public void abortTransaction()

消息发送端

/**
 * Kafka Producer事务的使用
 */
public class ProducerTransactionSend{
    public static final String topic = "topic-transaction";
    public static final String brokerList = "localhost:9092";
	public static final String transactionId = "transactionId";
    
    public static void main(String[] args){
        Properties props = new Properties();
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
                  StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
               StringSerializer.class.getName());
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,brokerList);   
        props.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG,transactionId);
        
        KafkaProducer<String,String> producer = new KafkaProducer<>(props);
        
        producer.initTransactions();
        producer.beginTransaction();
        try{
            //处理业务逻辑并创建ProducerRecord
            ProducerRecord<String,String> record1 = new ProducerRecord<>(topic,"msg1");
            producer.send(record1);
            ProducerRecord<String,String> record2 = new ProducerRecord<>(topic,"msg2");
            producer.send(record2);
            ProducerRecord<String,String> record3 = new ProducerRecord<>(topic,"msg3");
            producer.send(record3);
            //处理一些其他逻辑
            producer.commitTransaction();
        } catch(ProducerFencedException e){
            producer.aboutTransaction();
        }
        producer.close();
    }
}

模拟事务回滚案例

try{
    //处理业务逻辑并创建ProducerRecord
    ProducerRecord<String,String> record1 = new ProducerRecord<>(topic,"msg1");
    producer.send(record1);
    
    //模拟事务回滚案例
    System.out.println(1/0);
    
    ProducerRecord<String,String> record2 = new ProducerRecord<>(topic,"msg2");
    producer.send(record2);
    ProducerRecord<String,String> record3 = new ProducerRecord<>(topic,"msg3");
    producer.send(record3);
    //do something...
    producer.commitTransaction();
} catch(ProducerFencedException e){
    producer.aboutTransaction();
}

从上面案例中,msg1发送车工之后,出现了异常事务进行了回滚,则msg1消费端也收不到消息。

3、控制器

在kafka集群中会有一个或者多个broker,其中有一个broker会被选举为控制器(kafka Controller),她负责管理整个集群中所有分区和副本的状态。当某个分区的leader副本出现故障时,由控制器负责为该分区选举新的leader副本。当检测到某个分区的ISR集合发生变化时,由控制器负责通知所有broker更新其元数据信息。当使用kafka-topic.sh脚本为某个topic增加分区数量时,同样还是由控制器负责分区的重新分配。

kafka中的控制器选举的工作依赖于zookeeper,成功竞选为控制器的broker会在zookeeper中创建/controller这个临时(EPHEMERAL)节点,此临时节点的内容参考如下:

ZooInspector管理

  • 使用zookeeper图形化的客户端工具(Zooinspector)提供的jar来进行管理,启动如下:
    1. 定位到jar所在目录
    2. 运行jar文件 java -jar zookeeper-dev-ZooInspector.jar
    3. 连接Zookeeper

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-TI3p9fEe-1608538866351)(https://cdn.jsdelivr.net/gh/153603165/picgo/image/image-20201221143510946.png)]

其中version在目前版本中固定为1,brokerid表示称为控制器的broker的id编号,timestamp表示竞选称为控制器时的时间戳。

在任意时刻,集群中有且仅有一个控制器。每个broker启动的时候会去尝试读取/controller节点的brokerid的值,如果读取到brokerid的值不为-1,则表示已经由其他broker节点成功竞选为控制器,所以当前broker就会放弃竞选;如果zookeeper中不存在/controller这个节点,或者这个节点中的数据异常,那么就会尝试创建/controller这个节点,当前broker去创建节点的时候,也有可能其他broker同时去尝试创建这个节点,只有创建成功的那个broker才会称为控制器,而创建失败的broker则表示竞选失败,每个broker都会在内存中保存当前控制器的brokerid的值,这个值可以标识为activeControllerId。

Zookeeper中还有一个与控制器有关的/controller_epoch节点,这个节点时持久(PERSISTENT)节点,节点中存放的时一个整型的controller_epoch值。controller_epoch用于记录控制器发生变更的次数,即记录当前的控制器时第几代控制器,我们也可以称之为“控制器的纪元”。

image-20201221144948131

controller_epoch的初始值为1,即集群中第一个控制器的纪元为1,当控制器发生变更时,每选出一个新的控制器就将该字段值加1.每个和控制器交互的请求都会携带上controller_epoch这个字段,如果请求的controller_epoch值小于内存中的controller_epoch值,则认为这个请求是向已经过期的控制器所发送的请求,那么这个请求会被认为是无效的请求。如果请求的controller_epoch值大于内存中的controller_epoch值,那么则说明已经有新的控制器当选了,由此可见,kafka通过controller_epoch来保证控制器的唯一性,进而保证相关操作的一致性。

具备控制器身份的broker需要比其他普通的broker多一份职责,具体细节如下:

  1. 监听partition相关的变化
  2. 监听topic相关的变化
  3. 监听broker相关的变化
  4. 从Zookeeper中读取获取当前所有的topic、partition以及broker有关的信息并进行相应的管理

4、可靠性保证

  1. 可靠性保证:确保系统在各种不同的环境下能够发生一致的行为
  2. kafka的保证
    • 保证分区消息的顺序
      • 如果使用同一个生产者同一个分区写入消息,而且消息B在消息A之后写入,那么Kafka可以保证消息B的偏移量比消息A的偏移量大,而且消费者会先读取消息A在读取消息B
    • 只有当消息被写入分区的所有同步副本时(文件系统缓存),他才被认为时已提交
      • 生产者可以选择接收不同类型的确认,控制参数acks
    • 只要还有一个副本是活跃的,那么已提交的消息就不会丢失
    • 消费者只能读取已经提交的消息

失效副本

怎么样判定一个分区是否有副本是处于同步失效状态的呢?从kafka0.9.x版本开始通过位移的一个参数replica.lag.time.max.ms(默认大小为10000)来控制,当ISR中的一个follower副本之后leader副本的时间超过参数replica.lag.time.max.ms指定的值时即判定为副本失效,需要将此follower副本剔出除ISR之外。具体实现原理很简单,当follower副本将leader副本的LEO(Log End Offset,每个分区最后一条消息的位置)之前的日志全部同步时,则认为该follower副本已经追赶上leader副本,此时更新该副本的lastCaughtUpTimeMs标识。kafka的副本管理器(ReplicaManager)启动时会启动一个副本过期检测的定时任务,而这个定时任务会定时检查当前时间与副本的lastCaughtUpTimeMs差值是否大于参数replica.lag.time.max.ms指定的值。前玩不要错误的认为follower副本只要拉取leader副本的数据就会更新lastCaughtUpTimeMs,试想当leader副本的消息流入速度大于follower副本的拉取速度时,follower副本一直不断的拉取leader副本的消息也不能与leader副本同步,如果还将此follower副本置于ISR中,那么当leader副本失效,而选取此follower副本为新的leader副本,那么就会有严重的消息丢失。

副本复制

kafka中的每个主题分区都被复制了n此,其中的n是主题的复制因子(replication factor)。这允许kafka在集群服务器发生故障时自动切换这些副本,以便出现故障时消息任然可用。kafka的复制是以分区为粒度的,分区的预写日志被复制到n个服务器。在n个副本中,一个副本作为leader,其他副本称为followers,顾名思义,producer只能往leader分区上写数据(读也只能从leader分区上进行),followers只按顺序从leader上复制日志。

一个副本可以不同步leader有如下几个原因

  • 慢副本:在一定周期时间内follower不能追赶上leader。最常见的原因之一是I/O瓶颈导致follower追加复制消息速度慢于leader拉取速度。
  • 卡在副本:在一定周期时间内follower停止从leader拉取请求。follower replica卡在了由于GC暂停或follower失效或死亡。
  • 新启动副本:当用户给主题增加副本因子时,新的follower不在同步副本列表中,直到他们完全赶上了leader日志。

如何确定副本时滞后的

replica.lag.max.messages=4

image-20201221151748140

在服务端现在只有一个参数需要配置replica.lag.time.max.ms。这个参数解释replicas相应partition leader的最长等待时间。检测卡住或失败副本的探测–如果一个replica失败导致发送拉取请求时间间隔超过replica.lag.time.max.ms。kafka会认为此replica已经死亡会从同步副本列表中移除。除非replica请求leader时间间隔大于replica.lag.time.max.ms。因此即使leader使流量激增和大批量写消息。kafka也不会从同步副本列表中移除该副本。

5、一致性保证

  • 在leader宕机后,只能从ISR列表中选取新的leader,无论ISR中哪个副本被选为新的leader,他都知道HW之前的数据,可以保证在切换了leader后,消费者可以继续看到HW之前已经提交的数据。
  • HW的截断机制:选出了新的leader,而新的leader并不能保证已经完全同步了之前leader的所有数据,只能保证HW之前的数据是同步过的,此时所有的follower都要将数据截断到HW的位置,在和新的leader同步数据,来保证数据一致。当宕机的leader恢复,发现新的leader中的数据和自己持有的数据不一致,此时宕机的leader会将自己的数据截断到宕机之前的HW位置,然后同步新leader的数据。宕机的leader活过来也像follower一样同步数据,来保证数据的一致性。

Leader Epoch引用

数据丢失场景

image-20201221152356580

image-20201221152408031

kafka 0.11.0.0. 版本解决方案

造成上述两个问题的根本原因在于HW值被用于衡量副本备份的成功与否以及在出现failture时作为日志截断的依据,但HW值的更新时异步延迟的,特别时需要额外的FETCH请求处理流量才能更新,故这中间发生的任何崩溃都可能导致HW值的过期。鉴于这些原因,kafka0.11引入了leader epoch来取代HW值。Leader端多开辟一段内存区域专门保存leader的epoch信息,这样即使出现上面两个场景也能很好的规避这些问题。

所谓leader epoch实际上是一对值,(epoch,offset)。epoch表示leader的版本号,从0开始,当leader变更过1次时epoch就会+1,而offset则对应于该epoch版本的leader写入第一条消息的位移。因此假设有两对值:

(0,0)

(1,120)

则表示第一个leader从位移0开始写入了消息;共写了120条[0,199];而第二个leader版本号是1,从位移120处开始写入消息。

leader broker中会保存这样的一个缓存,并定期的写入到一个checkpoint文件中。

避免数据丢失:

image-20201221153258239

避免数据不一致:

image-20201221153321261

6、消息重复的场景及解决方案

1、生产者端重复

生产发送的消息没有收到正确的broker响应,导致producer重试。

producer发除一条消息,broker落盘以后因为网络等种种原因发送端得到一个发送失败的响应或者网络中断,然后producer收到一个可恢复的Exception重试消息导致消息重复。

解决方案:

  1. 启动kafka的幂等性

    要启动kafka的幂等性,无需修改代码,默认为关闭,需要修改配置文件:enable.idempotence=true同时要求ack=allretries>1

  2. ack=0,不重试。

    可能会丢失消息,适用于吞吐量指标重要性高于数据丢失,例如:日志收集。

2、消费者端重复

1、根本原因

数据消费完没有及时提交offset到broker。

解决方案

  1. 取消自动提交

    每次消费完或者程序退出时手动提交。这可能也没法保证一条重复。

  2. 下游做幂等

    一般的解决方案时让下游做幂等或者尽量每消费一条消息都记录offset,对于少数严格的场景可能需要吧offset或唯一ID,例如订单ID和下游状态更新放在同一个数据库里面做事务来保证精确的一次更新或者在下游数据表里面同时记录消费offset,然后更新下游数据的时候用消费位点做乐观锁拒绝旧位点的数据更新。

7、_consumer_offsets

_consumer_offsets时一个内部topic,对用户而言是透明的,除了它的数据文件以及偶尔在日志中出现这两点之外,用户一般是感觉不到这个topic的,不过我们的确直到他保存的是kafka最新版本consumer的位移信息。

1、何时创建

一般情况下,当集群中第一有消费者消费消息时会自动创建主题__consumer_offsets,分区数可以通过offsets.topic.num.partitions参数设定,默认值位50,如下:

image-20201221161141645

2、解析分区

image-20201221161216296

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值