Kafka读写机制深度剖析


Kafka 起初是由 LinkedIn 公司开发的一个分布式的消息系统,后成为 Apache 的一部分,它使用 Scala 编写,以可水平扩展和高吞吐率而被广泛使用。目前越来越多的开源分布式处理系统如 Cloudera、Apache Storm、Spark 等都支持与 Kafka 集成。

01. 概述

Kafka与传统消息系统相比,优势

  • 被设计为一个分布式系统,易于向外扩展;
  • 为发布和订阅提供高吞吐量;
  • 支持多订阅者,当失败时能自动平衡消费者;
  • 将消息持久化到磁盘,因此可用于批量消费,例如 ETL 以及实时应用程序。

Kafka凭借着自身的优势,越来越受到互联网企业的青睐。Kafka 作为一个商业级消息中间件,消息可靠性的重要性可想而知。如何确保消息的精确传输?如何确保消息的准确存储?如何确保消息的正确消费?这些都是需要考虑的问题。本文首先从 Kafka 的架构着手,先了解下 Kafka 的基本原理,然后通过对 kakfa 的存储机制、复制原理、同步原理、可靠性和持久性保证等等一步步对其可靠性进行分析,最后通过 benchmark 来增强对 Kafka 高可靠性的认知。

02. Kafka架构

在这里插入图片描述
Kafka架构由Producer、Broker、Consumer Group以及Zookeeper组成。
Kafka通过Zookeeper管理集群配置,选举Leader,以及在Consumer Group发生变化时进行Rebalance。Producer使用push模式将消息发布到Broker,Consumer使用pull模式从Broker订阅并消费消息。

名称解释
Broker消息中间件处理节点,也就是Kafka节点
TopicKafka根据Topic对消息进行归类,发布到Kafka集群的消息都需要指定一个Topic
Producer消息生产者,向Broker push消息的客户端
Consumer消息消费者,从Broker pull消息的客户端
Consumer Group每个Consumer属于一个特定的Consumer Group,一条消息可以发送到多个不同的Consumer Group,但是一个Consumer Group中只能有一个Consumer能够消费该消息
partition物理上的概念,一个Topic可以分为多个partition,partition内部是有序的

2.1 Topic & partition

一个Topic可以认为一个一类消息,每个Topic将被分成多个Partition,每个Partition在存储层面Partition是append log文件,也就是任何发布到Partition的消息都会被追加到log文件的尾部,每条消息在文件中的位置称为offset,offset为一个 long型的数字,它唯一标记一条消息。每条消息都被append到Partition中,是顺序写磁盘,因此效率非常高(经过验证,顺序写磁盘效率比随机写内存还要高,这是 Kafka 高吞吐率的一个很重要的保证)。
在这里插入图片描述
每一条消息被发送到Broker中,会根据Partition规则选择存储到哪一个Partition。如果 Partition规则设置的合理,消息可以均匀分布到不同的Partition里,这样就实现了水平扩展。(如果一个Topic 对应一个文件,那这个文件所在的机器IO将会成为这个Topic的性能瓶颈,而Partition解决了这个问题)。

在创建 Topic 时可以在 $Kafka_HOME/config/server.properties中指定这个Partition 的数量,当然可以在Topic创建之后去修改Partition的数量。

# The default number of log partitions per Topic. More partitions allow greater
# parallelism for consumption, but this will also result in more files across
# the Brokers.
num.partitions=3

在发送一条消息时,可以指定这个消息的key,Producer根据这个key和Partition机制来判断这个消息发送到哪个Partition。Partition机制可以通过指定Producer的partition.class参数来指定,该 class 必须实现Kafka.Producer.partitioner接口。

03. 高可靠性分析

Kafka的高可靠性的保障来源于其健壮的副本(replication)策略。通过调节其副本相关参数,可以使得Kafka在性能和可靠性之间运转的游刃有余。Kafka从0.8.x版本开始提供Partition级别的复制,replication数量可以配置文件(default.replication.refactor)中或者创建Topic的时候指定。

这里先从Kafka文件存储机制入手,从最底层了解Kafka的存储细节,进而对存储有个微观的认知。之后通过Kafka复制原理和同步方式来阐述宏观层面的概念。最后从ISRHWleader选举以及数据可靠性和持久性保证等等各个维度来丰富对Kafka相关知识点的认知。

3.1. Kafka文件存储机制

Kafka中消息是以Topic进行分类的,生产者通过Topic向Kafka Broker发送消息,消费者通过Topic读取数据。然而Topic在物理层面又能以Partition为分组,一个Topic可以分成若干个Partition,那么Topic以及Partition又是怎么存储的呢?Partition还可以细分为Segment,一个partition物理上由多个Segment组成,那么这些Segment又是什么呢?下面我们来一一揭晓。

为了便于说明问题,假设这里只有一个Kafka集群,且这个集群只有一个Kafka Broker,即只有一台物理机。在这个Kafka Broker中配置log.dirs=/tmp/Kafka-logs,以此来设置Kafka消息文件存储目录,与此同时创建一个名为topic_zzh_test的Topic,Partition的数量为4(kafka-topics.sh --create --zookeeper localhost:2181 --partitions 4 --topic topic_zzh_test --replication-factor 1)。那么我们此时在/tmp/Kafka-logs目录中可以看到生成了4个目录:

drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_vms_test-0
drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_vms_test-1
drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_vms_test-2
drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_vms_test-3

在Kafka文件存储中,同一个Topic下有多个不同的Partition,每个Partiton为一个目录,Partition的名称规则为:topic名称+有序序号,第一个序号从0开始计,最大的序号为Partition数量减1,Partition是实际物理上的概念,而Topic是逻辑上的概念。

上面提到Partition还可以细分为Segment,这个Segment又是什么?如果就以Partition为最小存储单位,我们可以想象当Kafka Producer不断发送消息,必然会引起Partition文件的无限扩张,这样对于消息文件的维护以及已经被消费的消息的清理带来严重的影响,所以这里以Segment为单位又将Partition细分。每个Partition(目录)相当于一个巨型文件被平均分配到多个大小相等的Segment(段)数据文件中(每个Segment文件中消息数量不一定相等)这种特性也方便Old Segment的删除,即方便已被消费的消息的清理,提高磁盘的利用率。每个Partition只需要支持顺序读写就行,Segment的文件生命周期由服务端配置参数(log.segment.byteslog.roll.{ms,hours}等若干参数)决定。

Segment文件由两部分组成,分别为index文件和log文件,分别表示为Segment索引文件和数据文件。这两个文件的命令规则为:Partition全局的第一个segment从0开始,后续每个Segment文件名为上一个Segment文件最后一条消息的offset值,数值大小为64位,20位数字字符长度,没有数字用0填充,如下:

00000000000000000000.index
00000000000000000000.log
00000000000000170410.index
00000000000000170410.log
00000000000000239430.index
00000000000000239430.log

以上面的Segment文件为例,展示出Segment:00000000000000170410的index文件和log文件的对应的关系,如下图:
在这里插入图片描述
如上图,index索引文件存储大量的元数据,log数据文件存储大量的消息,索引文件中的元数据指向对应数据文件中message的物理偏移地址。

  1. 如何根据索引文件元数据定位数据位置?
    如:index索引文件元数据[3,348],在log数据文件中表示第3个消息,在全局partition中表示170410+3=170413个消息,该条消息在相应log文件中的物理偏移地址为348。
  2. 那么如何从partition中通过offset查找message呢?
    如:读取offset=170418的消息,查找segment文件,其中,
    α. 00000000000000000000.index为最开始的文件,
    β. 00000000000000170410.index(start offset=170410+1=170411),
    γ. 00000000000000239430.index(start offset=239430+1=239431),
    因此,定位offset=170418在00000000000000170410.index索引文件中。其他后续文件可以依次类推,以偏移量命名并排列这些文件,然后根据二分查找法就可以快速定位到具体文件位置。其次,根据00000000000000170410.index文件中的[8,1325]定位到00000000000000170410.log文件中的1325的位置进行读取。
  3. 那么怎么知道何时读完本条消息,否则就读到下一条消息的内容了?
    因为消息都具有固定的物理结构,包括:offset(8 Bytes)、消息体的大小(4 Bytes)、crc32(4 Bytes)、magic(1 Byte)、attributes(1 Byte)、key length(4 Bytes)、key(K Bytes)、payload(N Bytes)等等字段,可以确定一条消息的大小,即读取到哪里截止。

3.2 复制原理和同步方式

Kafka中Topic的每个Partition有一个预写式的日志文件,虽然Partition可以继续细分为若干个Segment文件,但是对于上层应用来说可以将Partition看成最小的存储单元(一个有多个Segment文件拼接的“巨型”文件),每个Partition都由一些列有序的、不可变的消息组成,这些消息被连续的追加到Partition中。
在这里插入图片描述
上图中有两个新名词:HWLEO。这里先介绍下LEO,LogEndOffset的缩写,表示每个Partition的log最后一条Message的位置。HW是HighWatermark的缩写,是指Consumer能够看到的此Partition的位置,这个涉及到多副本的概念,这里先提及一下,下节再详表。

言归正传,为了提高消息的可靠性,Kafka每个Topic的Partition有N个副本(replicas),其中N(>=1)是Topic的复制因子(replica fator)的个数。Kafka通过多副本机制实现故障自动转移,当Kafka集群中一个Broker失效情况下仍然保证服务可用。在Kafka中发生复制时确保Partition的日志能有序地写到其他节点上,N个replicas中,其中一个replica为Leader,其他都为Follower, Leader处理Partition的所有写请求,与此同时,Follower会被动定期地去复制Leader上的数据。

如下图所示,Kafka集群中有4个Broker, 某Topic有3个Partition,且复制因子即副本个数也为3:
在这里插入图片描述

Kafka提供了数据复制算法保证,如果Leader发生故障或挂掉,将选举一个新Leader,并接受客户端消息的写入。Kafka确保从同步副本列表中选举一个副本为Leader,或者说Follower追赶Leader数据。Leader负责维护和跟踪ISR(In-Sync Replicas的缩写,即副本同步队列)中所有Follower滞后的状态。当Producer发送一条消息到Broker后,Leader写入消息并复制到所有Follower。消息提交之后才被成功复制到所有的同步副本。消息复制延迟受最慢的Follower限制,重要的是快速检测慢副本,如果Follower“落后”太多或者失效,leader将会把它从ISR中删除。

3.3 ISR

上节我们涉及到ISR (In-Sync Replicas),这个是指副本同步队列。副本数对Kafka的吞吐率是有一定的影响,但极大的增强了可用性。默认情况下,Kafka的replica数量为1,即每个Partition都有一个唯一的Leader,为了确保消息的可靠性,通常应用中将其值(由Broker的参数default.replication.factor指定)大小设置为大于1,比如3。 所有的副本(replicas)统称为Assigned Replicas,即AR。ISR是AR中的一个子集,由Leader维护ISR列表,Follower从Leader同步数据有一些延迟(包括延迟时间replica.lag.time.max.ms和延迟条数replica.lag.max.messages两个维度, 当前最新的版本0.10.x中只支持replica.lag.time.max.ms这个维度),任意一个超过阈值都会把Follower剔除出ISR, 存入OSR(Outof-Sync Replicas)列表,新加入的Follower也会先存放在OSR中。AR=ISR+OSR

Kafka 0.9.0.0版本后移除了replica.lag.max.messages参数,只保留了replica.lag.time.max.ms作为ISR中副本管理的参数。为什么这样做呢?replica.lag.max.messages表示当前某个副本落后Leader的消息数量超过了这个参数的值,那么Leader就会把Follower从ISR中删除。假设设置replica.lag.max.messages=4,那么如果Producer一次传送至Broker的消息数量都小于4条时,因为在leader接受到Producer发送的消息之后,而follower副本开始拉取这些消息之前,follower落后leader的消息数不会超过4条消息,故此没有follower移出ISR,所以这时候replica.lag.max.message的设置似乎是合理的。但是Producer发起瞬时高峰流量,Producer一次发送的消息超过4条时,也就是超过replica.lag.max.messages,此时Follower都会被认为是与Feader副本不同步了,从而被踢出了ISR。但实际上这些Follower都是存活状态的且没有性能问题。那么在之后追上Leader,并被重新加入了ISR。于是就会出现它们不断地剔出ISR然后重新回归ISR,这无疑增加了无谓的性能损耗。而且这个参数是Broker全局的。设置太大了,影响真正“落后”Follower的移除;设置的太小了,导致Follower的频繁进出。无法给定一个合适的replica.lag.max.messages的值,故此,新版本的Kafka移除了这个参数。

注:ISR中包括:Leader和Follower。

上面一节还涉及到一个概念,即HW。HW俗称高水位,HighWatermark的缩写,取一个Partition对应的ISR中最小的LEO作为HW,Consumer最多只能消费到HW所在的位置。另外每个replica都有HW,Leader和Follower各自负责更新自己的HW的状态。对于Leader新写入的消息,Consumer不能立刻消费,Leader会等待该消息被所有ISR中的replicas同步后更新HW,此时消息才能被Consumer消费。这样就保证了如果Leader所在的Broker失效,该消息仍然可以从新选举的Leader中获取。对于来自内部Broker的读取请求,没有HW的限制。

下图详细的说明了当Producer生产消息至Broker后,ISR以及HW和LEO的流转过程:
在这里插入图片描述
由此可见,Kafka的复制机制既不是完全的同步复制,也不是单纯的异步复制。事实上,同步复制要求所有能工作的Follower都复制完,这条消息才会被commit,这种复制方式极大的影响了吞吐率。而异步复制方式下,Follower异步的从Leader复制数据,数据只要被Leader写入log就被认为已经commit,这种情况下如果follower都还没有复制完,落后于Leader时,突然Leader宕机,则会丢失数据。而Kafka的这种使用ISR的方式则很好的均衡了确保数据不丢失以及吞吐率。

Kafka的ISR的管理最终都会反馈到Zookeeper节点上。具体位置为:/brokers/topics/[topic]/partitions/[partition]/state。目前有两个地方会对这个Zookeeper的节点进行维护:

  1. Controller来维护:Kafka集群中的其中一个Broker会被选举为Controller,主要负责partition管理和副本状态管理,也会执行类似于重分配partition之类的管理任务。在符合某些特定条件下,Controller下的LeaderSelector会选举新的Leader,ISR和新的leader_epoch及controller_epoch写入Zookeeper的相关节点中。同时发起LeaderAndIsrRequest通知所有的replicas。
  2. Leader来维护:Leader有单独的线程定期检测ISR中Follower是否脱离ISR,如果发现ISR变化,则会将新的ISR的信息返回到Zookeeper的相关节点中。

3.4 数据可靠性和持久性保证

当Producer向Leader发送数据时,可以通过request.required.acks参数来设置数据可靠性的级别:

  • 1(默认):意味着Producer在ISR中的Leader已成功收到数据,并返回确认信息。如果leader宕机了,则会丢失数据。
  • 0:意味着Producer无需等待来自Broker的确认继续发送下一批消息。这种情况下数据传输效率最高,但是数据可靠性确是最低的。
  • -1:Producer需要等待ISR中的所有Follower都确认接收到数据并且返回确认信息之后,才算一次发送完成,可靠性最高。但是这样也不能保证数据不丢失,比如当ISR中只有Leader时(前面ISR那一节讲到,ISR中的成员由于某些情况会增加也会减少,最少就只剩一个Leader),这样就变成了acks=1的情况。而且,如果由于网络的问题,导致Producer没有收到确认信息,那么会出现消息重复的现象。

如果要提高数据的可靠性,在设置request.required.acks=-1的同时,也要min.insync.replicas这个参数(可以在Broker或者Topic层面进行设置)的配合,这样才能发挥最大的功效。min.insync.replicas这个参数设定ISR中的最小副本数是多少,默认值为1,当且仅当request.required.acks参数设置为-1时,此参数才生效。如果ISR中的副本数少于min.insync.replicas配置的数量时,客户端会返回异常:org.apache.Kafka.common.errors.NotEnoughReplicasExceptoin: Messages are rejected since there are fewer in-sync replicas than required。

接下来对acks=1和-1的两种情况进行详细分析

  1. request.required.acks=1
    Producer发送数据到Leader,Leader写本地日志成功,返回客户端成功;此时ISR中的副本还没有来得及拉取该消息,Leader就宕机了,那么此次发送的消息就会丢失。
    在这里插入图片描述
  2. request.required.acks=-1
    • 同步(Kafka默认为同步,即producer.type=sync)的发送模式,replication.factor >= 2且min.insync.replicas >= 2的情况下,不会丢失数据。
    • 有两种典型情况。
      • acks=-1的情况下(如无特殊说明,以下acks都表示为参数request.required.acks),数据发送到Leader,ISR的Follower全部完成数据同步后,Leader此时挂掉,那么会选举出新的Leader,数据不会丢失。
        在这里插入图片描述
      • acks=-1的情况下,数据发送到Leader后 ,部分ISR的副本同步,Leader此时挂掉。比如Follower1和Follower2都有可能变成新的Leader, Producer端会得到返回异常,Producer端会重新发送数据,数据可能会重复。
        在这里插入图片描述
        当然上图中如果在leader crash的时候,follower2还没有同步到任何数据,而且follower2被选举为新的leader的话,这样消息就不会重复。

        注:Kafka只处理fail/recover问题,不处理Byzantine问题

3.5 关于HW的进一步探讨

考虑上图(即acks=-1,部分ISR副本同步)中的另一种情况,如果在Leader挂掉的时候,Follower1同步了消息4,5,Follower2同步了消息4,与此同时Follower2被选举为Leader,那么此时Follower1中的多出的消息5该做如何处理呢?

这里就需要HW的协同配合了。如前所述,一个Partition中的ISR列表中,Leader的HW是所有ISR列表里副本中最小的那个的LEO。类似于木桶原理,水位取决于最低那块短板。
在这里插入图片描述
如上图,某个Topic的某Partition有三个副本,分别为A、B、C。A作为Leader肯定是LEO最高,B紧随其后,C机器由于配置比较低,网络比较差,故而同步最慢。这个时候A机器宕机,这时候如果B成为Leader,通知其他Follower同步自己的数据,产生新的HW和LEO;当A恢复之后做同步操作时,会先将log文件截断到之前自己的HW的位置,即3,之后再从B中拉取消息进行同步。假如没有HW,在A重新恢复之后会做同步操作,在宕机时log文件之后直接新的Leader做追加操作,而假如B的LEO已经达到了A的LEO,会产生数据不一致的情况,所以使用HW来避免这种情况。

如果失败的Follower恢复过来,它首先将自己的log文件截断到上次check pointed时刻的HW的位置,之后再从Leader中同步消息。Leader挂掉会重新选举,新的Leader会发送指令让其余的Follower截断至自身的HW的位置然后再拉取新的消息。

当ISR中副本的LEO不一致时,如果此时Leader挂掉,选举新的Leader时并不是按照LEO的高低进行选举,而是按照ISR中的顺序选举。

3.6 Leader选举

一条消息只有被ISR中所有Follower都从Leader复制过去才会被认为已提交。这样就避免了部分数据被写进了Leader,还没来得及被任何Follower复制就宕机了,而造成数据丢失。而对于Producer而言,它可以选择是否等待消息commit,这可以通过request.required.acks来设置。这种机制确保了只要ISR中有一个或者以上的follower,一条被commit的消息就不会丢失。

有一个很重要的问题是当Leader宕机了,怎样在Follower中选举出新的Leader,因为Follower可能落后很多或者直接crash了,所以必须确保选择最新的Follower作为新的Leader。一个基本的原则就是,如果Leader不在了,新的Leader必须拥有原来的Leader commit的所有消息。这就需要做一个折中,如果Leader在一个消息被commit前等待更多的Follower确认,那么在它挂掉之后就有更多的Follower可以成为新的Leader,但这也会造成吞吐率的下降。

一种非常常用的选举Leader的方式是“少数服从多数“,Kafka并不是采用这种方式。这种模式下,如果我们有2f+1个副本,那么在commit之前必须保证有f+1个replica复制完消息,同时为了保证能正确选举出新的Leader,失败的副本数不能超过f个。这种方式有个很大的优势,系统的延迟取决于最快的几台机器,也就是说比如副本数为3,那么延迟就取决于最快的那个Follower而不是最慢的那个。“少数服从多数”的方式也有一些劣势,为了保证Leader选举的正常进行,它所能容忍的失败的Follower数比较少,如果要容忍1个Follower挂掉,那么至少要3个以上的副本,如果要容忍2个Follower挂掉,必须要有5个以上的副本。也就是说,在生产环境下为了保证较高的容错率,必须要有大量的副本,而大量的副本又会在大数据量下导致性能的急剧下降。这种算法更多用在Zookeeper这种共享集群配置的系统中而很少在需要大量数据的系统中使用的原因。HDFS的HA功能也是基于“少数服从多数”的方式,但是其数据存储并不是采用这样的方式。

实际上,Leader选举的算法非常多,比如Zookeeper的Zab、Raft以及Viewstamped Replication。而Kafka所使用的Leader选举算法更像是微软的PacificA算法

Kafka在Zookeeper中为每一个Partition动态的维护了一个ISR,这个ISR里的所有replica都跟上了Leader,只有ISR里的成员才能有被选为Leader的可能(unclean.leader.election.enable=false)。在这种模式下,对于f+1个副本,一个Kafka Topic能在保证不丢失已经commit消息的前提下容忍f个副本的失败,在大多数使用场景下,这种模式是十分有利的。事实上,为了容忍f个副本的失败,“少数服从多数”的方式和ISR在commit前需要等待的副本的数量是一样的,但是ISR需要的总的副本的个数几乎是“少数服从多数”的方式的一半。

上文提到,在ISR中至少有一个Follower时,Kafka可以确保已经commit的数据不丢失,但如果某一个Partition的所有replica都挂了,就无法保证数据不丢失了。这种情况下有两种可行的方案:

  1. 等待ISR中任意一个replica“活”过来,并且选它作为Leader
  2. 选择第一个“活”过来的replica(并不一定是在ISR中)作为Leader

这就需要在可用性和一致性当中作出一个简单的抉择。如果一定要等待ISR中的replica“活”过来,那不可用的时间就可能会相对较长。而且如果ISR中所有的replica都无法“活”过来了,或者数据丢失了,这个Partition将永远不可用。选择第一个“活”过来的replica作为Leader,而这个replica不是ISR中的replica,那即使它并不保障已经包含了所有已commit的消息,它也会成为Leader而作为Consumer的数据源。默认情况下,Kafka采用第二种策略,即unclean.leader.election.enable=true,也可以将此参数设置为false来启用第一种策略。

unclean.leader.election.enable这个参数对于leader的选举、系统的可用性以及数据的可靠性都有至关重要的影响。下面我们来分析下几种典型的场景。

在这里插入图片描述
如果上图所示,假设某个Partition中的副本数为3,replica-0, replica-1, replica-2分别存放在Broker0, Broker1和Broker2中。AR=(0,1,2),ISR=(0,1)。
设置request.required.acks=-1, min.insync.replicas=2,unclean.leader.election.enable=false。这里将Broker0中的副本也称之为Broker0起初Broker0为Leader,Broker1为Follower。

  • 当ISR中的replica-0出现crash的情况时,Broker1选举为新的Leader[ISR=(1)],因为受min.insync.replicas=2影响,write不能服务,但是read能继续正常服务。此种情况恢复方案:

    α. 尝试恢复(重启)replica-0,如果能起来,系统正常;
    β. 如果replica-0不能恢复,需要将min.insync.replicas设置为1,恢复write功能。

  • 当ISR中的replica-0出现crash,紧接着replica-1也出现了crash, 此时[ISR=(1),leader=-1],不能对外提供服务,此种情况恢复方案:

    α. 尝试恢复replica-0和replica-1,如果都能起来,则系统恢复正常;
    β. 如果replica-0起来,而replica-1不能起来,这时候仍然不能选出Leader,因为当设置unclean.leader.election.enable=false时,leader只能从ISR中选举,当ISR中所有副本都失效之后,需要ISR中最后失效的那个副本能恢复之后才能选举Leader,即replica-0先失效,replica-1后失效,需要replica-1恢复后才能选举Leader。保守的方案建议设置unclean.leader.election.enable=true,但是这样会有丢失数据的情况发生,这样可以恢复read服务。同样需要将min.insync.replicas设置为1,恢复write功能;
    γ. replica-1恢复,replica-0不能恢复,这个情况上面遇到过,read服务可用,需要将min.insync.replicas设置为1,恢复write功能;
    δ. replica-0和replica-1都不能恢复,这种情况可以参考情形2.

  • 当ISR中的replica-0,replica-1同时宕机,此时[ISR=(0,1)],不能对外提供服务,此种情况恢复方案:尝试恢复replica-0和replica-1,当其中任意一个副本恢复正常时,对外可以提供read服务。直到2个副本恢复正常,write功能才能恢复,或者将将min.insync.replicas设置为1。

3.7 Kafka的发送模式

Kafka的发送模式由Producer端的配置参数producer.type来设置,这个参数指定了在后台线程中消息的发送方式是同步的还是异步的,默认是同步的方式,即Producer.type=sync。如果设置成异步的模式,即poducer.type=async,可以是Producer以batch的形式push数据,这样会极大的提高Broker的性能,但是这样会增加丢失数据的风险。如果需要确保消息的可靠性,必须要将producer.type设置为sync。

对于异步模式,还有4个配套的参数,如下:

PropertyDescription
queue.buffering.max.ms默认值:5000。启用异步模式时,Producer缓存消息的时间。比如我们设置成1000时,它会缓存1s的数据再一次发送出去,这样可以极大的增加Broker吞吐量,但也会造成时效性的降低。
queue.buffering.max.messages默认值:10000。启用异步模式时,Producer缓存队列里最大缓存的消息数量,如果超过这个值,Producer就会阻塞或者丢掉消息。
queue.enqueue.timeout.ms默认值:-1。当达到上面参数时Producer会阻塞等待的时间。如果设置为0,buffer队列满时Producer不会阻塞,消息直接被丢掉;若设置为-1,Producer会被阻塞,不会丢消息。
batch.num.messages默认值:200。启用异步模式时,一个batch缓存的消息数量。达到这个数值时,Producer才会发送消息。(每次批量发送的数量)

以batch的方式推送数据可以极大的提高处理效率,Kafka Producer可以将消息在内存中累计到一定数量后作为一个batch发送请求。batch的数量大小可以通过Producer的参数(batch.num.messages)控制。通过增加batch的大小,可以减少网络请求和磁盘IO的次数,当然具体参数设置需要在效率和时效性方面做一个权衡。在比较新的版本中还有batch.size这个参数。

04. 高可靠性使用分析

4.1 消息传输保障

前面已经介绍了Kafka如何进行有效的存储,以及了解了Producer和Consumer如何工作。接下来讨论的是Kafka如何确保消息在Producer和Consumer之间传输。有以下三种可能的传输保障(delivery guarantee):

at most once:消息可能会丢,但绝不会重复传输。
at least once:消息绝不会丢,但可能会重复传输。
exactly once:每条消息肯定会被传输一次且仅传输一次。

Kafka的消息传输保障机制非常直观。当Producer向Broker发送消息时,一旦这条消息被commit,由于副本机制(replication)的存在,它就不会丢失。但是如果Producer发送数据给Broker后,遇到的网络问题而造成通信中断,那Producer就无法判断该条消息是否已经提交(commit)。虽然Kafka无法确定网络故障期间发生了什么,但是Producer可以retry多次,确保消息已经正确传输到Broker中,所以目前Kafka实现的是at least once。

Consumer从Broker中读取消息后,可以选择commit,该操作会在Zookeeper中存下该Consumer在该Partition下读取的消息的offset。该Consumer下一次再读该Partition时会从下一条开始读取。如未commit,下一次读取的开始位置会跟上一次commit之后的开始位置相同。当然也可以将Consumer设置为auto commit,即Consumer一旦读取到数据立即自动commit。如果只讨论这一读取消息的过程,那Kafka是确保了exactly once, 但是如果由于前面Producer与Broker之间的某种原因导致消息的重复,那么这里就是at least once。

考虑这样一种情况,当Consumer读完消息之后先commit再处理消息,在这种模式下,如果Consumer在commit后还没来得及处理消息就crash了,下次重新开始工作后就无法读到刚刚已提交而未处理的消息,这就对应于at most once了。

读完消息先处理再commit。这种模式下,如果处理完了消息在commit之前Consumer crash了,下次重新开始工作时还会处理刚刚未commit的消息,实际上该消息已经被处理过了,这就对应于at least once。

要做到exactly once就需要引入消息去重机制。

4.2 消息去重

如上一节所述,Kafka在Producer端和Consumer端都会出现消息的重复,这就需要去重处理。

Kafka文档中提及GUID(Globally Unique Identifier)的概念,通过客户端生成算法得到每个消息的unique id,同时可映射至Broker上存储的地址,即通过GUID便可查询提取消息内容,也便于发送方的幂等性保证,需要在Broker上提供此去重处理模块,目前版本尚不支持。

针对GUID,如果从客户端的角度去重,那么需要引入集中式缓存,必然会增加依赖复杂度,另外缓存的大小难以界定。

不只是Kafka,类似RabbitMQ、RocketMQ这类商业级中间件也只保障at least once,且也无法从自身去进行消息去重。所以我们建议业务方根据自身的业务特点进行去重,比如业务消息本身具备幂等性,或者借助Redis等其他产品进行去重处理。

4.3 高可靠性配置

Kafka提供了很高的数据冗余弹性,对于需要数据高可靠性的场景,我们可以增加数据冗余备份数(replication.factor),调高最小写入副本数的个数(min.insync.replicas)等等,但是这样会影响性能。反之,性能提高而可靠性则降低,用户需要自身业务特性在彼此之间做一些权衡性选择。

要保证数据写入到Kafka是安全的,高可靠的,需要如下的配置:
topic的配置:replication.factor>=3,即副本数至少是3个;2<=min.insync.replicas<=replication.factor
Broker的配置:Leader的选举条件,unclean.leader.election.enable=false
Producer的配置:request.required.acks=-1,Producer.type=sync

05. BenchMark

Kafka在唯品会有着很深的历史渊源,根据唯品会消息中间件团队(VMS团队)所掌握的资料显示,在VMS团队运转的Kafka集群中所支撑的topic数已接近2000,每天的请求量也已达千亿级。这里就以Kafka的高可靠性为基准点来探究几种不同场景下的行为表现,以此来加深对Kafka的认知,为大家在以后高效的使用Kafka时提供一份依据。

5.1 测试环境

Kafka Broker用到了4台机器,分别为Broker[0/1/2/3]配置如下:
CPU:24core/2.6GHZ
Memory: 62G
Network:4000Mb
OS/Kernel:CentOS release 6.6 (Final)
Disk:1089G
Kafka:0.10.1.0
Broker端JVM参数设置:

-Xmx8G -Xms8G -server 
-XX:+UseParNewGC -XX:+UseConcMarkSweepGC 
-XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark 
-XX:+DisableExplicitGC -Djava.awt.headless=true 
-verbose:gc -Xloggc:logs/kafka-server-gc.log 
-XX:+PrintGCDetails -XX:+PrintGCDateStamps -XX:+PrintGCTimeStamps 
-Dcom.sun.management.jmxremote 
-Dcom.sun.management.jmxremote.authenticate=false 
-Dcom.sun.management.jmxremote.ssl=false 
-Dcom.sun.management.jmxremote.port=9999

客户端机器配置:
CPU: 24core/2.6GHZ
Memory: 3G
Network: 1000Mb
OS/Kernel: CentOS release 6.3 (Final)
Disk: 240G

5.2 不同场景测试

场景1:测试不同的副本数、min.insync.replicas策略以及request.required.acks策略(以下简称acks策略)对于发送速度(TPS)的影响。

具体配置:一个Producer;发送方式为sync;消息体大小为1kB;partition数为12。副本数为:1/2/4;min.insync.replicas分别为1/2/4;acks分别为-1/1/0。

具体测试数据如下表(min.insync.replicas只在acks=-1时有效):

acksreplicasmin.insync.replicasretriesTPS
-111028511.3
-121022359.5
-122022927.4
-141016193.9
-142016599.9
-144016680.3
01N/A045353.8
02N/A046426.5
04N/A046764.2
11N/A033950.3
12N/A032192.2
14N/A032275.9

测试结果分析:
客户端的acks策略对发送的TPS有较大的影响,TPS:acks_0 > acks_1 > ack_-1;
副本数越高,TPS越低;副本数一致时,min.insync.replicas不影响TPS;
acks=0/1时,TPS与min.insync.replicas参数以及副本数无关,仅受acks策略的影响。
下面将partition的个数设置为1,来进一步确认下不同的acks策略、不同的min.insync.replicas策略以及不同的副本数对于发送速度的影响,详细请看情景2和情景3。

场景2:在partition个数固定为1,测试不同的副本数和min.insync.replicas策略对发送速度的影响。

具体配置:一个Producer;发送方式为sync;消息体大小为1kB;Producer端acks=-1(all)。变换副本数:2/3/4; min.insync.replicas设置为:1/2/4。

replicasmin.insync.replicasTPS
219738.8
229701.6
318999.7
329243.1
419005.8
428216.9
449092.4

测试结果分析(与情景1一致):
副本数越多,TPS越低;客户端的acks策略对发送的TPS有较大的影响,TPS:acks_0 > acks_1 > ack_-1。

场景4:测试不同partition数对发送速率的影响

具体配置:一个Producer;消息体大小为1KB;发送方式为sync;Topic副本数为2;min.insync.replicas=2;acks=-1。partition数量设置为1/2/4/8/12。

测试结果:
在这里插入图片描述
测试结果分析:partition的不同会影响TPS,随着partition的个数的增长TPS会有所增长,但并不是一直成正比关系,到达一定临界值时,partition数量的增加反而会使TPS略微降低。

场景5:通过将集群中部分Broker设置成不可服务状态,测试对客户端以及消息落盘的影响。

具体配置:一个Producer;消息体大小1KB;发送方式为sync;Topic副本数为4;min.insync.replicas设置为2;acks=-1;retries=0/100000000;partition数为12。

具体测试数据如下表:

acksreplicasmin.insync.replicasretries测试方法TPS数据落盘出现错误
-1420发送过程中kill两台broke12840一致(部分数据可落盘,部分失败)错误1
-142100000000发送过程中kill两台Broker13870一致(消息有重复落盘)错误2
-142100000000发送过程中kill三台Broker,之后重启N/A一致(消息有重复落盘错误2、3、4

出错信息:
错误1:客户端返回异常,部分数据可落盘,部分失败:org.apache.Kafka.common.errors.NetworkException: The server disconnected before a response was received.
错误2:[WARN]internals.Sender - Got error produce response with correlation id 19369 on Topic-partition default_channel_replicas_4_1-3, retrying (999999999 attempts left). Error: NETWORK_EXCEPTION
错误3: [WARN]internals.Sender - Got error produce response with correlation id 77890 on Topic-partition default_channel_replicas_4_1-8, retrying (999999859 attempts left). Error: NOT_ENOUGH_REPLICAS
错误4: [WARN]internals.Sender - Got error produce response with correlation id 77705 on Topic-partition default_channel_replicas_4_1-3, retrying (999999999 attempts left). Error: NOT_ENOUGH_REPLICAS_AFTER_APPEND

测试结果分析:
kill两台Broker后,客户端可以继续发送。Broker减少后,partition的leader分布在剩余的两台Broker上,造成了TPS的减小;
kill三台Broker后,客户端无法继续发送。Kafka的自动重试功能开始起作用,当大于等于min.insync.replicas数量的Broker恢复后,可以继续发送;
当retries不为0时,消息有重复落盘;客户端成功返回的消息都成功落盘,异常时部分消息可以落盘。

场景6:测试单个Producer的发送延迟,以及端到端的延迟。

具体配置:一个Producer;消息体大小1KB;发送方式为sync;Topic副本数为4;min.insync.replicas设置为2;acks=-1;partition数为12。

测试数据及结果(单位为ms):

发送端(avg)发送端(min)发送端(max)发送端(99%)发送端(99.99%)消费端(avg)消费端(min)消费端(max)消费端(99%)消费端(99.99%)
1.71511573291.6461288472

各场景测试总结:
当acks=-1时,Kafka发送端的TPS受限于Topic的副本数量(ISR中),副本越多TPS越低;
acks=0时,TPS最高,其次为1,最差为-1,即TPS:acks_0 > acks_1 > ack_-1;
min.insync.replicas参数不影响TPS;
partition的不同会影响TPS,随着partition的个数的增长TPS会有所增长,但并不是一直成正比关系,到达一定临界值时,partition数量的增加反而会使TPS略微降低;
Kafka在acks=-1,min.insync.replicas>=1时,具有高可靠性,所有成功返回的消息都可以落盘。

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值