Kafka 学习笔记

啊,最近在准备实习,作为一个半路转行的新猿,不可避免接触到了 Kafka。看了一些尚硅谷视频学了学,搭了个单节点的尝试一下,顺手写几句笔记加强记忆。

架构

Kafka 相比于 RabbitMQ 的直观,还是有点绕的,我来捋一捋。

  • Kafka Cluster 中有若干台服务器,每台服务器就是一个 broker,在每台机器的配置文件中有对应的 broker_id 配置,只是为了机器的区分。

  • Kafka 用 topic 存储数据,可以理解为RabbitMQ中的队列,是具有存储数据的能力的一种结构。

  • topic 是一种逻辑上的划分,而在物理上,每个 topic 又划分为若干个 partition,这才是实际存储数据的地方。在 log.dir 目录下(注意 Kafka 的 log 都指的是 数据data,真正的 log 在根目录的 logs 文件夹下),可以看到形如 topicName-0 这样的文件夹,这里是每个 partition 真正存储数据的地方。这样的分区机制是为了存储上的负载均衡(方便在集群中扩展,每个 Partition 可以通过调整以适应它所在的机器,而一个 topic 又可以有多个 Partition 组成,因此整个集群就可以适应任意大小的数据了),也提高了读写的并发度(因为可以以 Partition 为单位读写了)。

  • 在创建 topic 的时候,我们会声明一个参数 replication-factor 副本数,它最小为 1,指的是我们 partition 本体和副本的总数,或者说是 leaderfollower 的总数,所以最小为1,即没有 follower。leader 显然不会和 follower 保存在同一个 broker 中,那就没有备份的意义了。注意,生产者发送数据的对象,以及消费者消费数据的对象都是 leader

  • 生产者此时可以把消息发送给 Kafka Cluster 中的某个 topic,如果该 topic 不存在,会自动按照最低标准(分区为1,副本数为1)创建 topic。

  • Kafka 接收到消息后将消息存储到该 topic 对应的若干个 partition 中。当消息到达时,Kafka就会把他们追加到各个分区尾部。我们需要将 producer 发送的数据封装成一个 ProducerRecord 对象,如果指定了分区,就直接发到该 partition;如果指定了参数 key ,将 key 的 hash 值与 topic 的 partition 数进行取余得到 partition 值;如果都没有指定,在默认情况下,Kafka使用 轮询分区器(partitioner把消息一致的分配到多个partition 上。每个 partition 都是由有序的不可变的记录序列组成,并且消息都是连续的被追加在尾部Kafka 不能保证全局有序性(全局生产顺序和消费顺序一致),只能保证每个 partition 内的有序性

  • Kafka 采取了分片和索引机制,来避免 log 文件过大导致数据定位效率低下。Kafka 将每个 partition 分为多个 segment。每个 segment 对应两个文件——“.index”文件“.log”文件。这些文件位于一个文件夹下,该文件夹的命名 规则为:topic 名称+分区序号。例如刚才提到的topicName-0。 我们用 Offset 偏移量定位数据,每个 segment 的文件名是本文件存储的第一个数据对应的 Offset,我们通过 index 文件找到数据在 log 文件中对应的起始位置和大小,再查找 log 文件可以获得对应的数据。我们注意到 配置文件中 有log.segment.bytes=1073741824 ,指的是 log 文件夹中每个 .log 文件的最大容量。

  • leader 存储数据后,follower 会开始备份工作。

  • 不同于 RabbitMQ,Kafka 的 consumer 有一个 Consumer Group 的概念。 Consumer Group 订阅一个或多个 topic,并通过从 broker 中提取数据来使用已发布的消息。Group 中的 Consumer 消费不同的 partition,因此一个消息在 group 内只消费一次。组中的每个 Consumer,都会实时记录自己消费到了哪个 offset,以便出错恢复时,从上次的位置继续消费,即 Consumer 自己维护消费到哪个 offset。Group 间是 publish-subscribe 消费模型:各个 Group 各自独立消费,互不影响,因此一个消息被每个 Group 消费一次。

数据可靠性

同步策略(半数同步和全部同步)

为保证 producer 发送的数据,能可靠的发送到指定的 topic, topic 的每个 partition 收到producer 发送的数据后,都需要向 producer 发送 ack(acknowledgement 确认收到),如果 producer 收到 ack, 就会进行下一轮的发送,否则重新发送数据。

那么就有两个问题:

  • 何时发送ack?
    确保有 follower 与 leader 同步完成再发送 ack,这样才能保证 leader 挂掉之后,能在 follower 中选举出新的leader。

  • 多少个follower同步完成之后发送ack?

    半数以上 或者 全部 的follower同步完成,即可发送ack继续发送重新发送。一般采用第二种方案(全部),虽然延迟高,但是容错率也高了。前者延迟低,但是容错率低,同样挂了 N 台机器的情况下,选举新的 leader 时前者至少有 N + 1 台机器(半数以上)正常工作,才能保证一定有一台是有备份的,但是后者只需要有一个正常工作的机器,就可以保证有备份。容错率比是 1/2 : N-1/N;

ISR(同步副本集合)

采用第二种方案之后,设想以下情景: leader 收到数据,所有 follower 都开始同步数据,但有一个 follower,因为某种故障,迟迟不能与 leader 进行同步,那 leader 就要一直等下去,直到它完成同步,才能发送 ack。这个问题怎么解决呢?

Leader 维护了一个动态的 in-sync replica set (ISR),意为和 leader 保持同步的 follower 集合。当 ISR 中的 follower 完成数据的同步之后,就会给 leader 发送 ack。如果 follower长时间未向leader发送同步数据请求,则该follower将被踢出ISR,该时间阈值由replica.lag.time.max.ms参数设定(最大请求时间间隔)。 Leader 发生故障之后,就会从 ISR 中选举新的 leader。

0.9 版本之前还有一个机制是 比较 follower 和 leader 的数据,follower 落后太多也移除:

producer 往 kafka 中发送数据,不仅可以一次发送一条数据,还可以发送message的数组;批量发送,同步的时候批量发送,异步的时候本身就是就是批量;底层会有队列缓存起来,批量发送,对应broker而言,就会收到很多数据(假设1000),这时候leader发现自己有1000条数据,flower只有500条数据,落后了500条数据,就把它从ISR中移除出去,这时候发现其他的flower与他的差距都很小,就等待;如果因为内存等原因,差距很大,就把它从ISR中移除出去。后面达成条件了会重新加入 ISR。

这样可能会频繁操作 ISR 的进出,也会频繁操作 zk,后面版本就移除了。

ack 应答机制(可靠性级别)

对于某些不太重要的数据,对数据的可靠性要求不是很高,能够容忍数据的少量丢失,所以没必要等 ISR 中的 follower 全部接收成功。

所以 Kafka 为用户提供了三种可靠性级别,用户根据对可靠性和延迟的要求进行权衡,选择以下的配置。

acks 参数配置

  • 0: producer 不等待 broker 的 ack,这一操作提供了一个最低的延迟, broker 一接收到还没有写入磁盘就已经返回,当 broker 故障时有可能丢失数据

  • 1: producer 等待 broker 的 ack, partition 的 leader 落盘成功后返回 ack,如果在 follower同步成功之前 leader 故障,那么将会丢失数据

  • -1(all) : producer 等待 broker 的 ack, partition 的 leader 和 ISR 的 follower 全部落盘成功后才返回 ack。但是如果在 follower 同步完成后, broker 发送 ack 之前, leader 发生故障,那么会造成数据重复,因为没有收到 ack,生产者会重复发送。

数据一致性问题

Leader 挂掉了,ISR 中不同的 Follower 之间同步情况不同,而选举出来了一个新Leader后,老 leader 又恢复了,现在不同本体和副本之间数据不一致怎么办?

12.png

先介绍两个名词

  • LEO:(Log End Offset)每个副本的最后一个offset
  • HW:(High Watermark)高水位,指的是消费者能见到的最大的 offset, ISR 队列中最小的 LEO

根据 HW, 我们把故障分为 follower 故障leader 故障 分别解决:

  • follower 故障:follower 发生故障后会被临时踢出 ISR,待该 follower 恢复后, follower 会读取本地磁盘记录的上次的 HW,并将 log 文件高于 HW 的部分截取掉,从 HW 开始向 leader 进行同步。等该 follower 的 LEO 大于等于该 Partition 的 HW,即 follower 追上 leader 之后,就可以重新加入 ISR 了。
  • leader 故障:leader 发生故障之后,会从 ISR 中选出一个新的 leader,之后,为保证多个副本之间的数据一致性, 其余的 follower 会先将各自的 log 文件高于 HW 的部分截掉,然后从新的 leader同步数据。

注意: 这只能保证副本之间的数据一致性,并不能保证数据不丢失或者不重复。

精准一次性 ExactlyOnce

将服务器的 ACK 级别设置为-1(leader 和 ISR 的 follower 全部写入),可以保证 Producer 到 Server 之间不会丢失数据,即 At Least Once 语义。

相对的,将服务器 ACK 级别设置为 0(就是不关心 leader 是否写入),可以保证生产者每条消息只会被发送一次,不会重复数据,即 At Most Once 语义。

At Least Once 可以保证数据不丢失,但是不能保证数据不重复;相对的, At Most Once可以保证数据不重复,但是不能保证数据不丢失。 但是,对于一些非常重要的信息,比如说交易数据,下游数据消费者要求数据既不重复也不丢失,即 Exactly Once 语义。

在 0.11 版本以前的 Kafka,对此是无能为力的,只能保证数据不丢失,再在下游消费者对数据做全局去重。对于多个下游应用的情况,每个都需要单独做全局去重,这就对性能造成了很大影响。

0.11 版本的 Kafka,引入了一项重大特性:幂等性所谓的幂等性就是指 Producer 不论向 Server 发送多少次重复数据, Server 端都只会持久化一条。幂等性结合 At Least Once 语义,就构成了 Kafka 的 Exactly Once 语义。即:

At Least Once + 幂等性 = Exactly Once

要启用幂等性,只需要将 Producer 的参数中 enable.idempotence 设置为 true 即可。 Kafka的幂等性实现其实就是将原来下游需要做的去重放在了数据上游。开启幂等性的 Producer 在初始化的时候会被分配一个 PID,发往同一 Partition 的消息会附带 Sequence Number而 Broker 端会对<PID, Partition, SeqNumber>做缓存,当具有相同主键的消息提交时, Broker 只会持久化一条。

但是 PID 重启就会变化,同时不同的 Partition 也具有不同主键,所以幂等性无法保证跨分区跨会话的 Exactly Once。

但是单个分区,没有挂掉的情况下,这样操作可以完成 精准一次性写入

消费者

消费方式

consumer 采用 pull 模式从 broker 中读取数据

push 模式很难适应消费速率不同的消费者,因为消息发送速率是由 broker 决定的。它的目标是尽可能以最快速度传递消息,但是这样很容易造成 consumer 来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而 pull 模式则可以根据 consumer 的消费能力以适当的速率消费消息。

pull 模式不足之处是,如果 Kafka 没有数据,消费者可能会陷入循环中, 一直返回空数据。 针对这一点, Kafka 的消费者在消费数据时会传入一个时长参数 timeout,如果当前没有数据可供消费, consumer 会等待一段时间之后再返回,这段时长即为 timeout。

分区分配策略

同一个 group 中的 consumer 可以消费同一个 topic 但是不能消费同一个 partition,分区分配策略即确定那个 partition 由哪个 consumer 来消费

round-robin 轮询

单个 topic 就很好理解,依次把 partition 分给 consumer 就行;

多个 topic时, 将 每个Partition和对应的 topic 视为一个整体对象 TopicAndPartition

以下例子摘自 https://my.oschina.net/jallenkwong/blog/4449224

这里我们首先假设有三个topic:t0、t1和t2,这三个topic拥有的分区数分别为1、2和3,那么总共有六个分区,这六个分区分别为:t0-0、t1-0、t1-1、t2-0、t2-1和t2-2。这里假设我们有三个consumer:C0、C1和C2,它们订阅情况为:C0订阅t0,C1订阅t0和t1,C2订阅t0、t1和t2。那么这些分区的分配步骤如下:

16.png
  • 首先将所有的partition和consumer按照字典序进行排序,所谓的字典序,就是按照其名称的字符串顺序,那么上面的六个分区和三个consumer排序之后分别为:

  • 然后依次以按顺序轮询的方式将这六个分区分配给三个consumer,如果当前consumer没有订阅当前分区所在的topic,则轮询的判断下一个consumer

  • 尝试将t0-0分配给C0,由于C0订阅了t0,因而可以分配成功;

  • 尝试将t1-0分配给C1,由于C1订阅了t1,因而可以分配成功;

  • 尝试将t1-1分配给C2,由于C2订阅了t1,因而可以分配成功;

  • 尝试将t2-0分配给C0,由于C0没有订阅t2,因而会轮询下一个consumer;

  • 尝试将t2-0分配给C1,由于C1没有订阅t2,因而会轮询下一个consumer;

  • 尝试将t2-0分配给C2,由于C2订阅了t2,因而可以分配成功;

  • 同理由于t2-1和t2-2所在的topic都没有被C0和C1所订阅,因而都不会分配成功,最终都会分配给C2。

  • 按照上述的步骤将所有的分区都分配完毕之后,最终分区的订阅情况如下:

    17.png

轮询的方式会导致每个consumer所承载的分区数量不一致,从而导致各个consumer负载不均衡。适合所有consumer订阅的 topic 都一致的情况

range(默认)

Range 分配策略,就是首先会计算各个consumer将会承载的分区数量,然后将指定数量的分区分配给该consumer。

这里我们假设有两个consumer:C0和C1,两个topic:t0和t1,这两个topic分别都有三个分区,那么总共的分区有六个:t0-0、t0-1、t0-2、t1-0、t1-1和t1-2。那么Range分配策略将会按照如下步骤进行分区的分配:

  • 需要注意的是,Range策略是按照topic依次进行分配的,比如我们以t0进行讲解,其首先会获取t0的所有分区:t0-0、t0-1和t0-2,以及所有订阅了该topic的consumer:C0和C1,并且会将这些分区和consumer按照字典序进行排序;
  • 然后按照平均分配的方式计算每个consumer会得到多少个分区,如果没有除尽,则会将多出来的分区依次分配给前面几个consumer。;
  • 同理,按照上面的步骤依次进行后面的topic的分配。
  • 最终上面六个分区的分配情况如下:

18.png

现在有个问题,分配过程中某个节点挂掉了,或者增加了新的消费者,会发生什么?

Rebalance 再均衡

摘自 https://www.cnblogs.com/FG123/p/10095125.html

Rebalance(再均衡:在同一个消费者组当中,分区的所有权从一个消费者转移到另外一个消费者)机制,Rebalance顾名思义就是重新均衡消费者消费

再均衡发生的场景有以下几种:

  1. 组成员发生变更(新consumer加入组、已有consumer主动离开组或已有consumer崩溃了)
  2. 订阅主题数发生变更,如果你使用了正则表达式的方式进行订阅,那么新建匹配正则表达式的topic就会触发rebalance
  3. 订阅主题的分区数发生变更
    消费者发生 Rebalance 之后,每个消费者消费的分区就会发生变化。因此消费者要首先获取到自己被重新分配到的分区,并且定位到每个分区最近提交的 offset 位置继续消费
    鉴于触发再均衡后会造成资源浪费的问题,所以我们尽量不要触发再均衡

Rebalance的过程如下:

第一步:所有成员都向coordinator发送请求,请求入组。一旦所有成员都发送了请求,coordinator会从中选择一个consumer担任leader的角色,并把组成员信息以及订阅信息发给leader。

第二步:leader开始分配消费方案,指明具体哪个consumer负责消费哪些topic的哪些partition。一旦完成分配,leader会将这个方案发给coordinator。coordinator接收到分配方案之后会把方案发给各个consumer,这样组内的所有成员就都知道自己应该消费哪些分区了。

消费者offset的存储

我们前面提到过,每个消费者需要自己维护 partition log 的消费到了哪,也就是 offset。

由于 consumer 在消费过程中可能会出现断电宕机等故障, consumer 恢复后,需要从故障前的位置的继续消费,所以 consumer 需要实时记录自己消费到了哪个 offset,以便故障恢复后继续消费。

Kafka 0.9 版本之前, consumer 默认将 offset 保存在 Zookeeper 中,从 0.9 版本开始,consumer 默认将 offset 保存在 Kafka 一个内置的 topic 中,该 topic 为__consumer_offsets

还有一个问题,就是当某个 consumer 挂掉了,我们应该从它最后消费的位置开始,而不是从该 partition 的头开始,所以这个 offset 应该是按照 Group 为基本单位存储的,实际上是 Group - Topic - Partition

为什么 Kafka 作为消息中间件效率很高

  • Kafka 使用了分布式的技术,使用分区的设计,将一个 Topic(类比 RabbitMQ的 队列)分成了若干分区,提高了读写的并发度,所以效率是提高的

  • 单台的 Kafka 仍然具有较高的效率

    • 顺序写磁盘,在磁盘上开辟了一个空间连续写,比随机写减少了大量磁头寻址的时间

    • 零拷贝

      CPU不需要为数据在内存之间的拷贝消耗资源。而它通常是指计算机在网络上发送文件时,不需要将文件内容拷贝到用户空间(User Space)而直接在内核空间(Kernel Space)中传输到网络的方式。

      https://zhuanlan.zhihu.com/p/258513662

Kafka 和 Zookeeper

Kafka 集群中有一个 broker 会被选举为 Controller,负责管理集群 broker 的上下线,所有 topic 的分区副本分配和 leader 选举等工作。

Controller 的管理工作都是依赖于 Zookeeper 的。

但是我看到新版本 kafka 似乎要和 zk 解耦,就像 spring 要和 jvm 解耦一样,这些分离似乎是大势所趋.

Kafka的事务管理

Producer 事务(保证数据精准一次写入 结合幂等性)

为了实现跨分区跨会话的事务,需要引入一个全局唯一的 Transaction ID,并将 Producer 获得的 PID 和Transaction ID 绑定。这样当Producer 重启后(重启后 PID 会改变)就可以通过正在进行的 TransactionID 获得原来的 PID

为了管理 Transaction, Kafka 引入了一个新的组件 Transaction Coordinator。 Producer 就是通过和 Transaction Coordinator 交互获得 Transaction ID 对应的任务状态。 Transaction Coordinator 还负责将事务所有写入 Kafka 的一个内部 Topic,这样即使整个服务重启,由于事务状态得到保存,进行中的事务状态可以得到恢复,从而继续进行。

Consumer 事务(较弱)

上述事务机制主要是从 Producer 方面考虑,对于 Consumer 而言,事务的保证就会相对较弱,尤其时无法保证 Commit 的信息被精确消费。这是由于 Consumer 可以通过 offset 访问任意信息,而且不同的 Segment File 生命周期不同,同一事务的消息可能会出现重启后被删除的情况。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值