kafka的介绍

kafka的介绍

什么是kafka?

是一个分布式发布-订阅消息系统和一个强大的队列,适合离线和在线消息消费,扩展性特别好。Kafka消息保留在磁盘上,并在集群内复制以防止数据丢失。Kafka为什么比其他的MQ都快,采用的是机制是顺序写入磁盘和Memory Mapped Files(内存映射文件)。
顺序写入:每个partition都是一个文件,kafka会把收到的message插入到文件末尾,每个consumer会对每个topic都有一个offset用来表示读取到了第几条数据。kafka会把所有的数据都保留下来,但是数据落到磁盘后,会随着数据增加,而选择要不要删除,kafka目前提供两种机制来删除,一种是基于时间的,数据默认保留7天,一种是基于partition文件大小的。
Kafka不是实时的写入硬盘,充分利用操作系统的分页存储来提高I/O操作。64位操作系统中一般可以表示20G的数据文件,它的工作原理是直接利用操作系统的Page来实现文件到物理内存的直接映射。完成映射之后你对物理内存的操作会被同步到硬盘上。

kafka的应用场景?

由于kafka具有更好的吞吐量、内置分区、冗余及容错性的优点(kafka每秒可以处理几十万消息),让
kafka成为了一个很好的大规模消息处理应用的解决方案。所以在企业级应用长,主要会应用于如下几
个方面
行为跟踪:kafka可以用于跟踪用户浏览页面、搜索及其他行为。通过发布-订阅模式实时记录到对应的
topic中,通过后端大数据平台接入处理分析,并做更进一步的实时处理和监控
日志收集:日志收集方面,有很多比较优秀的产品,比如Apache Flume,很多公司使用kafka代理日志 聚合。日志聚合表示从服务器上收集日志文件,然后放到一个集中的平台(文件服务器)进行处理。在 实际应用开发中,我们应用程序的log都会输出到本地的磁盘上,排查问题的话通过linux命令来搞定, 如果应用程序组成了负载均衡集群,并且集群的机器有几十台以上,那么想通过日志快速定位到问题, 就是很麻烦的事情了。所以一般都会做一个日志统一收集平台管理log日志用来快速查询重要应用的问 题。所以很多公司的套路都是把应用日志集中到kafka上,然后分别导入到es和hdfs上,用来做实时检索分析和离线统计数据备份等。而另一方面,kafka本身又提供了很好的api来集成日志并且做日志收集

Kafka本身的架构

一个典型的kafka集群包含若干Producer(可以是应用节点产生的消息,也可以是通过Flume收集日志
产生的事件),若干个Broker(kafka支持水平扩展)、若干个Consumer Group,以及一个
zookeeper集群。kafka通过zookeeper管理集群配置及服务协同。Producer使用push模式将消息发布
到broker,consumer通过监听使用pull模式从broker订阅并消费消息。
多个broker协同工作,producer和consumer部署在各个业务逻辑中。三者通过zookeeper管理协调请
求和转发。这样就组成了一个高性能的分布式消息发布和订阅系统。
图上有一个细节是和其他mq中间件不同的点,producer 发送消息到broker的过程是push,而
consumer从broker消费消息的过程是pull,主动去拉数据。而不是broker把数据主动发送给consumer
在这里插入图片描述

名词解释

1)Broker

Kafka集群包含一个或多个服务器,这种服务器被称为broker。broker端不维护数据的消费状态,提升 了性能。直接使用磁盘进行存储,线性读写,速度快:避免了数据在JVM内存和系统内存之间的复制, 减少耗性能的创建对象和垃圾回收。

2)Producer 负责发布消息到Kafka broker
3)Consumer

消息消费者,向Kafka broker读取消息的客户端,consumer从broker拉取(pull)数据并进行处理。

4)Topic

每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。(物理上不同Topic的消息分开存
储,逻辑上一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消
费数据而不必关心数据存于何处)

5)Partition

Parition是物理上的概念,每个Topic包含一个或多个Partition.

6)Consumer Group

每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定
group name则属于默认的group)

7)Topic & Partition

Topic在逻辑上可以被认为是一个queue,每条消费都必须指定它的Topic,可以简单理解为必须指明把
这条消息放进哪个queue里。为了使得Kafka的吞吐率可以线性提高,物理上把Topic分成一个或多个
Partition,每个Partition在物理上对应一个文件夹,该文件夹下存储这个Partition的所有消息和索引文
件。若创建topic1和topic2两个topic,且分别有13个和19个分区,则整个集群上会相应会生成共32个
文件夹(本文所用集群共8个节点,此处topic1和topic2 replication-factor均为1)。

一些基础配置分

group.id

consumer group是kafka提供的可扩展且具有容错性的消费者机制。既然是一个组,那么组内必然可以
有多个消费者或消费者实例(consumer instance),它们共享一个公共的ID,即group ID。组内的所有
消费者协调在一起来消费订阅主题(subscribed topics)的所有分区(partition)。当然,每个分区只能由
同一个消费组内的一个consumer来消费.如下图所示,分别有三个消费者,属于两个不同的group,那
么对于fifirstTopic这个topic来说,这两个组的消费者都能同时消费这个topic中的消息,对于此事的架构
来说,这个fifirstTopic就类似于ActiveMQ中的topic概念。如右图所示,如果3个消费者都属于同一个 group,那么此事fifirstTopic就是一个Queue的概念enable.auto.commit

在这里插入图片描述

关于Topic和Partition

Topic

在kafka中,topic是一个存储消息的逻辑概念,可以认为是一个消息集合。每条消息发送到kafka集群的
消息都有一个类别。物理上来说,不同的topic的消息是分开存储的,
每个topic可以有多个生产者向它发送消息,也可以有多个消费者去消费其中的消息。
在这里插入图片描述

Partition

每个topic可以划分多个分区(每个Topic至少有一个分区),同一topic下的不同分区包含的消息是不同
的。每个消息在被添加到分区时,都会被分配一个offffset(称之为偏移量),它是消息在此分区中的唯
一编号,kafka通过offffset保证消息在分区内的顺序,offffset的顺序不跨分区,即kafka只保证在同一个
分区内的消息是有序的。
下图中,对于名字为test的topic,做了3个分区,分别是p0、p1、p2.
Ø 每一条消息发送到broker时,会根据partition的规则选择存储到哪一个partition。如果partition规则
设置合理,那么所有的消息会均匀的分布在不同的partition中,这样就有点类似数据库的分库分表的概 念,把数据做了分片处理.
在这里插入图片描述

Topic&Partition的存储

Partition是以文件的形式存储在文件系统中,比如创建一个名为fifirstTopic的topic,其中有3个
partition,那么在kafka的数据目录(/tmp/kafka-log)中就有3个目录,fifirstTopic-0~3, 命名规则是
sh kafka-topics.sh --create --zookeeper 192.168.11.156:2181 --replication-factor
1 --partitions 3 --topic firstTopic

关于消息分发

kafka消息分发策略

消息是kafka中最基本的数据单元,在kafka中,一条消息由key、value两部分构成,在发送一条消息
时,我们可以指定这个key,那么producer会根据key和partition机制来判断当前这条消息应该发送并
存储到哪个partition中。我们可以根据需要进行扩展producer的partition机制。


发送端代码添加自定义分区
消息默认的分发机制
默认情况下,kafka采用的是hash取模的分区算法。如果Key为null,则会随机分配一个分区。这个随机
是在这个参数”metadata.max.age.ms”的时间范围内随机选择一个。对于这个时间段内,如果key为
null,则只会发送到唯一的分区。这个值值哦默认情况下是10分钟更新一次。
关于Metadata,这个之前没讲过,简单理解就是Topic/Partition和broker的映射关系,每一个topic的
每一个partition,需要知道对应的broker列表是什么,leader是谁、follower是谁。这些信息都是存储
在Metadata这个类里面。
消费端如何消费指定的分区
通过下面的代码,就可以消费指定该topic下的0号分区。其他分区的数据就无法接收
在这里插入图片描述

消息默认的分发机制

默认情况下,kafka采用的是hash取模的分区算法。如果Key为null,则会随机分配一个分区。
这个随机 是在这个参数”metadata.max.age.ms”的时间范围内随机选择一个。对于这个时间段内,如果key为 null,则只会发送到唯一的分区。这个值值哦默认情况下是10分钟更新一次。
关于Metadata,这个之前没讲过,简单理解就是Topic/Partition和broker的映射关系,每一个topic的 每一个partition,需要知道对应的broker列表是什么,leader是谁、follower是谁。这些信息都是存储 在Metadata这个类里面。

消费端如何消费指定的分区

通过下面的代码,就可以消费指定该topic下的0号分区。其他分区的数据就无法接收
//消费指定分区的时候,不需要再订阅
kafkaConsumer.subscribe(Collections.singletonList(topic)); //消费指定的分区 TopicPartition topicPartition=new TopicPartition(topic,0); kafkaConsumer.assign(Arrays.asList(topicPartition));


## kafka消息消费原理演示 在实际生产过程中,每个topic都会有多个partitions,多个partitions的好处在于,一方面能够对 broker上的数据进行分片有效减少了消息的容量从而提升io性能。另外一方面,为了提高消费端的消费 能力,一般会通过多个consumer去消费同一个topic ,也就是消费端的负载均衡机制,也就是我们接下 来要了解的,在多个partition以及多个consumer的情况下,消费者是如何消费消息的 同时,在上一节课,我们讲了,kafka存在consumer group的概念,也就是group.id一样的 consumer,这些consumer属于一个consumer group,组内的所有消费者协调在一起来消费订阅主题 的所有分区。当然每一个分区只能由同一个消费组内的consumer来消费,那么同一个consumer group里面的consumer是怎么去分配该消费哪个分区里的数据的呢?如下图所示,3个分区,3个消费 者,那么哪个消费者消分哪个分区?

在这里插入图片描述

对于上面这个图来说,这3个消费者会分别消费test这个topic 的3个分区,也就是每个consumer消费一
个partition。

生产者

在这里插入图片描述

消费者

在这里插入图片描述

代码演示(3个partiton对应3个consumer)

Ø 创建一个带3个分区的topic
Ø 启动3个消费者消费同一个topic,并且这3个consumer属于同一个组
Ø 启动发送者进行消息发送
演示结果:consumer1会消费partition0分区、consumer2会消费partition1分区、consumer3会消费
partition2分区
如果是2个consumer消费3个partition呢?会是怎么样的结果?

代码演示(3个partiton对应2个consumer)

Ø 基于上面演示的案例的topic不变
Ø 启动2个消费这消费该topic
Ø 启动发送者进行消息发送
演示结果:consumer1会消费partition0/partition1分区、consumer2会消费partition2分区

代码演示(3个partition对应4个或以上consumer)

演示结果:仍然只有3个consumer对应3个partition,其他的consumer无法消费消息
通过这个演示的过程,我希望引出接下来需要了解的kafka的分区分配策略(Partition Assignment
Strategy)


consumer和partition的数量建议

  1. 如果consumer比partition多,是浪费,因为kafka的设计是在一个partition上是不允许并发的,
    所以consumer数不要大于partition数
  2. 如果consumer比partition少,一个consumer会对应于多个partitions,这里主要合理分配
    consumer数和partition数,否则会导致partition里面的数据被取的不均匀。最好partiton数目是
    consumer数目的整数倍,所以partition数目很重要,比如取24,就很容易设定consumer数目
  3. 如果consumer从多个partition读到数据,不保证数据间的顺序性,kafka只保证在一个partition
    上数据是有序的,但多个partition,根据你读的顺序会有不同
  4. 增减consumer,broker,partition会导致rebalance,所以rebalance后consumer对应的
    partition会发生变化

什么时候会触发这个策略呢?

当出现以下几种情况时,kafka会进行一次分区分配操作,也就是kafka consumer的rebalance

  1. 同一个consumer group内新增了消费者
  2. 消费者离开当前所属的consumer group,比如主动停机或者宕机
  3. topic新增了分区(也就是分区数量发生了变化)
    kafka consuemr的rebalance机制规定了一个consumer group下的所有consumer如何达成一致来分
    配订阅topic的每个分区。而具体如何执行分区策略,就是前面提到过的两种内置的分区策略。而kafka
    对于分配策略这块,提供了可插拔的实现方式, 也就是说,除了这两种之外,我们还可以创建自己的分配机制。
    在这里插入图片描述

什么是分区分配策略

通过前面的案例演示,我们应该能猜到,同一个group中的消费者对于一个topic中的多个partition,存
在一定的分区分配策略。
在kafka中,存在三种分区分配策略,一种是Range(默认)、 另一种是RoundRobin(轮询)、
StickyAssignor(粘性)。 在消费端中的ConsumerConfifig中,通过这个属性来指定分区分配策略
public static final String PARTITION_ASSIGNMENT_STRATEGY_CONFIG =
“partition.assignment.strategy”;

RangeAssignor(范围分区)

Range策略是对每个主题而言的,首先对同一个主题里面的分区按照序号进行排序,并对消费者按照字
母顺序进行排序。假设n = 分区数/消费者数量
m= 分区数%消费者数量
那么前m个消费者每个分配n+l个分区,后面的(消费者数量-m)个消费者每个分配n个分区
假设我们有10个分区,3个消费者,排完序的分区将会是0, 1, 2, 3, 4, 5, 6, 7, 8, 9;消费者线程排完序将
会是C1-0, C2-0, C3-0。然后将partitions的个数除于消费者线程的总数来决定每个消费者线程消费几个
分区。如果除不尽,那么前面几个消费者线程将会多消费一个分区。在我们的例子里面,我们有10个分
区,3个消费者线程, 10 / 3 = 3,而且除不尽,那么消费者线程 C1-0 将会多消费一个分区
的结果看起来是这样的:
C1-0 将消费 0, 1, 2, 3 分区
C2-0 将消费 4, 5, 6 分区
C3-0 将消费 7, 8, 9 分区
假如我们有11个分区,那么最后分区分配的结果看起来是这样的:
C1-0 将消费 0, 1, 2, 3 分区
C2-0 将消费 4, 5, 6, 7 分区
C3-0 将消费 8, 9, 10 分区
假如我们有2个主题(T1和T2),分别有10个分区,那么最后分区分配的结果看起来是这样的:
C1-0 将消费 T1主题的 0, 1, 2, 3 分区以及 T2主题的 0, 1, 2, 3分区
C2-0 将消费 T1主题的 4, 5, 6 分区以及 T2主题的 4, 5, 6分区
C3-0 将消费 T1主题的 7, 8, 9 分区以及 T2主题的 7, 8, 9分区
可以看出,C1-0 消费者线程比其他消费者线程多消费了2个分区,这就是Range strategy的一个很明
显的弊端


RoundRobinAssignor(轮询分区)

轮询分区策略是把所有partition和所有consumer线程都列出来,然后按照hashcode进行排序。最后通
过轮询算法分配partition给消费线程。如果所有consumer实例的订阅是相同的,那么partition会均匀
分布。
在我们的例子里面,假如按照 hashCode 排序完的topic-partitions组依次为T1-5, T1-3, T1-0, T1-8, T1-
2, T1-1, T1-4, T1-7, T1-6, T1-9,我们的消费者线程排序为C1-0, C1-1, C2-0, C2-1,最后分区分配的结果
为:
C1-0 将消费 T1-5, T1-2, T1-6 分区;
C1-1 将消费 T1-3, T1-1, T1-9 分区;
C2-0 将消费 T1-0, T1-4 分区;
C2-1 将消费 T1-8, T1-7 分区;
使用轮询分区策略必须满足两个条件

  1. 每个主题的消费者实例具有相同数量的流
  2. 每个消费者订阅的主题必须是相同的

StrickyAssignor 分配策略 ’

kafka在0.11.x版本支持了StrickyAssignor, 翻译过来叫粘滞策略,它主要有两个目的分区的分配尽可能的均匀
分区的分配尽可能和上次分配保持相同
当两者发生冲突时, 第 一 个目标优先于第二个目标。 鉴于这两个目标, StickyAssignor分配策略的具
体实现要比RangeAssignor和RoundRobinAssi gn or这两种分配策略要复杂得多,假设我们有这样一个
场景
假设消费组有3个消费者:C0,C1,C2,它们分别订阅了4个Topic(t0,t1,t2,t3),并且每个主题有两个分
区(p0,p1),也就是说,整个消费组订阅了8个分区:tOpO 、 tOpl 、 tlpO 、 tlpl 、 t2p0 、
t2pl 、t3p0 、 t3pl
那么最终的分配场景结果为
CO: tOpO、tlpl 、 t3p0
Cl: tOpl、t2p0 、 t3pl
C2: tlpO、t2pl
这种分配方式有点类似于轮询策略,但实际上并不是,因为假设这个时候,C1这个消费者挂了,就势必会造成
重新分区(reblance),如果是轮询,那么结果应该是
CO: tOpO、tlpO、t2p0、t3p0
C2: tOpl、tlpl、t2pl、t3pl
然后,strickyAssignor它是一种粘滞策略,所以它会满足分区的分配尽可能和上次分配保持相同,所以
分配结果应该是
消费者CO: tOpO、tlpl 、 t3p0、t2p0
消费者C2: tlpO、t2pl、tOpl、t3pl
也就是说,C0和C2保留了上一次是的分配结果,并且把原来C1的分区分配给了C0和C2。 这种策略的好处是
使得分区发生变化时,由于分区的“粘性,减少了不必要的分区移动

谁来执行Rebalance以及管理consumer的group呢?

Kafka提供了一个角色:coordinator来执行对于consumer group的管理,Kafka提供了一个角色:
coordinator来执行对于consumer group的管理,当consumer group的第一个consumer启动的时
候,它会去和kafka server确定谁是它们组的coordinator。之后该group内的所有成员都会和该
coordinator进行协调通信

如何确定coordinator

consumer group如何确定自己的coordinator是谁呢, 消费者向kafka集群中的任意一个broker发送一个
GroupCoordinatorRequest请求,服务端会返回一个负载最小的broker节点的id,并将该broker设置
为coordinator

JoinGroup的过程

在rebalance之前,需要保证coordinator是已经确定好了的,整个rebalance的过程分为两个步骤,
Join和Sync
join: 表示加入到consumer group中,在这一步中,所有的成员都会向coordinator发送joinGroup的请
求。一旦所有成员都发送了joinGroup请求,那么coordinator会选择一个consumer担任leader角色,
并把组成员信息和订阅信息发送消费者
leader选举算法比较简单,如果消费组内没有leader,那么第一个加入消费组的消费者就是消费者 leader,如果这个时候leader消费者退出了消费组,那么重新选举一个leader,这个选举很随意,类似于随机算法
在这里插入图片描述

Synchronizing Group State阶段

完成分区分配之后,就进入了Synchronizing Group State阶段,主要逻辑是向GroupCoordinator发送
SyncGroupRequest请求,并且处理SyncGroupResponse响应,简单来说,就是leader将消费者对应
的partition分配方案同步给consumer group 中的所有consumer
在这里插入图片描述
每个消费者都会向coordinator发送syncgroup请求,不过只有leader节点会发送分配方案,其他消费者只是打打酱油而已。当leader把方案发给coordinator以后,coordinator会把结果设置到
SyncGroupResponse中。这样所有成员都知道自己应该消费哪个分区。
Ø consumer group的分区分配方案是在客户端执行的!Kafka将这个权利下放给客户端主要是因为这样做可以有更好的灵活性
在这里插入图片描述


总结

我们再来总结一下consumer group rebalance的过程

  1. 对于每个consumer group子集,都会在服务端对应一个GroupCoordinator进行管理,
    GroupCoordinator会在zookeeper上添加watcher,当消费者加入或者退出consumer group时,会修
    改zookeeper上保存的数据,从而触发GroupCoordinator开始Rebalance操作
  2. 当消费者准备加入某个Consumer group或者GroupCoordinator发生故障转移时,消费者并不知道
    GroupCoordinator的在网络中的位置,这个时候就需要确定GroupCoordinator,消费者会向集群中的
    任意一个Broker节点发送ConsumerMetadataRequest请求,收到请求的broker会返回一个response
    作为响应,其中包含管理当前ConsumerGroup的GroupCoordinator,
  3. 消费者会根据broker的返回信息,连接到groupCoordinator,并且发送HeartbeatRequest,发送心
    跳的目的是要要奥噶苏GroupCoordinator这个消费者是正常在线的。当消费者在指定时间内没有发送
    心跳请求,则GroupCoordinator会触发Rebalance操作。
  4. 发起join group请求,两种情况
    如果GroupCoordinator返回的心跳包数据包含异常,说明GroupCoordinator因为前面说的几种
    情况导致了Rebalance操作,那这个时候,consumer会发起join group请求
    新加入到consumer group的consumer确定好了GroupCoordinator以后
    消费者会向GroupCoordinator发起join group请求,GroupCoordinator会收集全部消费者信息之
    后,来确认可用的消费者,并从中选取一个消费者成为group_leader。并把相应的信息(分区分
    配策略、leader_id、…)封装成response返回给所有消费者,但是只有group leader会收到当前
    consumer group中的所有消费者信息。当消费者确定自己是group leader以后,会根据消费者的
    信息以及选定分区分配策略进行分区分配
    接着进入Synchronizing Group State阶段,每个消费者会发送SyncGroupRequest请求到
    GroupCoordinator,但是只有Group Leader的请求会存在分区分配结果,GroupCoordinator会
    根据Group Leader的分区分配结果形成SyncGroupResponse返回给所有的Consumer。
    consumer根据分配结果,执行相应的操作
    到这里为止,我们已经知道了消息的发送分区策略,以及消费者的分区消费策略和rebalance。对于应
    用层面来说,还有一个最重要的东西没有讲解,就是offffset,他类似一个游标,表示当前消费的消息的
    位置。

如何保存消费端的消费位置

什么是offffset

前面在讲解partition的时候,提到过offffset, 每个topic可以划分多个分区(每个Topic至少有一个分
区),同一topic下的不同分区包含的消息是不同的。每个消息在被添加到分区时,都会被分配一个
offffset(称之为偏移量),它是消息在此分区中的唯一编号,kafka通过offffset保证消息在分区内的顺
序,offffset的顺序不跨分区,即kafka只保证在同一个分区内的消息是有序的; 对于应用层的消费来
说,每次消费一个消息并且提交以后,会保存当前消费到的最近的一个offffset。那么offffset保存在哪里?
在这里插入图片描述

offffset在哪里维护?

在kafka中,提供了一个consumer_offffsets_* 的一个topic,把offffset信息写入到这个topic中。
consumer_offffsets——按保存了每个consumer group某一时刻提交的offffset信息。
__consumer_offffsets 默认有50个分区。
根据前面我们演示的案例,我们设置了一个KafkaConsumerDemo的groupid。首先我们需要找到这个
consumer_group保存在哪个分区中
properties.put(ConsumerConfifig.GROUP_ID_CONFIG,“KafkaConsumerDemo”);
计算公式
Math.abs(“groupid”.hashCode())%groupMetadataTopicPartitionCount ; 由于默认情况下
groupMetadataTopicPartitionCount有50个分区,计算得到的结果为:35, 意味着当前的
consumer_group的位移信息保存在__consumer_offffsets的第35个分区
执行如下命令,可以查看当前consumer_goup中的offffset位移提交的信息
kafka-console-consumer.sh --topic __consumer_offsets --partition 15 –
bootstrap-server 192.168.13.102:9092,192.168.13.103:9092,192.168.13.104:9092
–formatter
‘kafka.coordinator.group.GroupMetadataManager$OffsetsMessageFormatter’
从输出结果中,我们就可以看到test这个topic的offffset的位移日志

在这里插入图片描述

分区的副本机制

我们已经知道Kafka的每个topic都可以分为多个Partition,并且多个partition会均匀分布在集群的各个
节点下。虽然这种方式能够有效的对数据进行分片,但是对于每个partition来说,都是单点的,当其中
一个partition不可用的时候,那么这部分消息就没办法消费。所以kafka为了提高partition的可靠性而
提供了副本的概念(Replica),通过副本机制来实现冗余备份。
每个分区可以有多个副本,并且在副本集合中会存在一个leader的副本,所有的读写请求都是由leader
副本来进行处理。剩余的其他副本都做为follower副本,follower副本会从leader副本同步消息日志。
这个有点类似zookeeper中leader和follower的概念,但是具体的时间方式还是有比较大的差异。所以
我们可以认为,副本集会存在一主多从的关系。一般情况下,同一个分区的多个副本会被均匀分配到集群中的不同broker上,当leader副本所在的
broker出现故障后,可以重新选举新的leader副本继续对外提供服务。通过这样的副本机制来提高
kafka集群的可用性。

创建一个带副本机制的topic

** 通过下面的命令去创建带2个副本的topic
sh kafka-topics.sh --create --zookeeper 192.168.11.156:2181 --replication-factor
3 --partitions 3 --topic secondTopic
然后我们可以在/tmp/kafka-log路径下看到对应topic的副本信息了。我们通过一个图形的方式来表达。
针对secondTopic这个topic的3个分区对应的3个副本

在这里插入图片描述

如何知道那个各个分区中对应的leader是谁呢?

在zookeeper服务器上,通过如下命令去获取对应分区的信息, 比如下面这个是获取secondTopic第1个
分区的状态信息。
get /brokers/topics/secondTopic/partitions/1/state
{“controller_epoch”:12,“leader”:0,“version”:1,“leader_epoch”:0,“isr”:[0,1]}
或通过这个命令 sh kafka-topics.sh --zookeeper 192.168.13.106:2181 --describe --topic
test_partition
leader表示当前分区的leader是那个broker-id。下图中。绿色线条的表示该分区中的leader节点。其他 节点就为follower
在这里插入图片描述

需要注意的是,kafka集群中的一个broker中最多只能有一个副本,leader副本所在的broker节点的
分区叫leader节点,follower副本所在的broker节点的分区叫follower节点
副本的leader选举
Kafka提供了数据复制算法保证,如果leader副本所在的broker节点宕机或者出现故障,或者分区的
leader节点发生故障,这个时候怎么处理呢?
那么,kafka必须要保证从follower副本中选择一个新的leader副本。那么kafka是如何实现选举的呢?
要了解leader选举,我们需要了解几个概念
Kafka分区下有可能有很多个副本(replica)用于实现冗余,从而进一步实现高可用。副本根据角色的不同
可分为3类:
leader副本:响应clients端读写请求的副本
follower副本:被动地备份leader副本中的数据,不能响应clients端读写请求。
ISR副本:包含了leader副本和所有与leader副本保持同步的follower副本——如何判定是否与leader同
步后面会提到每个Kafka副本对象都有两个重要的属性:LEO和HW。注意是所有的副本,而不只是
leader副本。
LEO:即日志末端位移(log end offffset),记录了该副本底层日志(log)中下一条消息的位移值。注意是下
一条消息!也就是说,如果LEO=10,那么表示该副本保存了10条消息,位移值范围是[0, 9]。另外,
leader LEO和follower LEO的更新是有区别的。我们后面会详细说
HW:即上面提到的水位值。对于同一个副本对象而言,其HW值不会大于LEO值。小于等于HW值的所
有消息都被认为是“已备份”的(replicated)。同理,leader副本和follower副本的HW更新是有区别的
从生产者发出的 一 条消息首先会被写入分区的leader 副本,不过还需要等待ISR集合中的所有
follower副本都同步完之后才能被认为已经提交,之后才会更新分区的HW, 进而消费者可以消费
到这条消息。

副本协同机制

刚刚提到了,消息的读写操作都只会由leader节点来接收和处理。follower副本只负责同步数据以及当
leader副本所在的broker挂了以后,会从follower副本中选取新的leader。写请求首先由Leader副本处理,之后follower副本会从leader上拉取写入的消息,这个过程会有一定的
延迟,导致follower副本中保存的消息略少于leader副本,但是只要没有超出阈值都可以容忍。但是如
果一个follower副本出现异常,比如宕机、网络断开等原因长时间没有同步到消息,那这个时候,
leader就会把它踢出去。kafka通过ISR集合来维护一个分区副本信息
在这里插入图片描述
一个新leader被选举并被接受客户端的消息成功写入。Kafka确保从同步副本列表中选举一个副本为
leader;leader负责维护和跟踪ISR(in-Sync replicas , 副本同步队列)中所有follower滞后的状态。当
producer发送一条消息到broker后,leader写入消息并复制到所有follower。消息提交之后才被成功复制到所有的同步副本。

ISR

ISR表示目前“可用且消息量与leader相差不多的副本集合,这是整个副本集合的一个子集”。怎么去理解
可用和相差不多这两个词呢?具体来说,ISR集合中的副本必须满足两个条件

  1. 副本所在节点必须维持着与zookeeper的连接
  2. 副本最后一条消息的offffset与leader副本的最后一条消息的offffset之间的差值不能超过指定的阈值
    (replica.lag.time.max.ms) replica.lag.time.max.ms:如果该follower在此时间间隔内一直没有追
    上过leader的所有消息,则该follower就会被剔除isr列表
  3. ISR数据保存在Zookeeper的 /brokers/topics//partitions//state
    节点中
    follower副本把leader副本LEO之前的日志全部同步完成时,则认为follower副本已经追赶上了leader
    副本,这个时候会更新这个副本的lastCaughtUpTimeMs标识,kafk副本管理器会启动一个副本过期检
    查的定时任务,这个任务会定期检查当前时间与副本的lastCaughtUpTimeMs的差值是否大于参数
    replica.lag.time.max.ms 的值,如果大于,则会把这个副本踢出ISR集合

在这里插入图片描述

在这里插入图片描述

首先这个acks参数,是在KafkaProducer,也就是生产者客户端里设置的也就是说,你往kafka写数据的时候,就可以来设置这个acks参数。然后这个参数实际上有三种常见的值可以设置,分别是:0、1 和 all。


有三种方式
  1. 第一种选择是把acks参数设置为0,意思就是我的KafkaProducer在客户端,只要把消息发送出去,不管那条数据有没有在哪怕Partition Leader上落到磁盘,我就不管他了,直接就认为这个消息发送成功了。
    如果你采用这种设置的话,那么你必须注意的一点是,可能你发送出去的消息还在半路。结果呢,Partition Leader所在Broker就直接挂了,然后结果你的客户端还认为消息发送成功了,此时就会导致这条消息就丢失了。
    在这里插入图片描述

  2. 第二种选择是设置 acks = 1,意思就是说只要Partition Leader接收到消息而且写入本地磁盘了,就认为成功了,不管他其他的Follower有没有同步过去这条消息了。
    这种设置其实是kafka默认的设置,大家请注意,划重点!这是默认的设置
    也就是说,默认情况下,你要是不管acks这个参数,只要Partition Leader写成功就算成功。
    但是这里有一个问题,万一Partition Leader刚刚接收到消息,Follower还没来得及同步过去,结果Leader所在的broker宕机了,此时也会导致这条消息丢失,因为人家客户端已经认为发送成功了。
    在这里插入图片描述

  3. 最后一种情况,就是设置acks=all,这个意思就是说,Partition Leader接收到消息之后,还必须要求ISR列表里跟Leader保持同步的那些Follower都要把消息同步过去,才能认为这条消息是写入成功了。
    如果说Partition Leader刚接收到了消息,但是结果Follower没有收到消息,此时Leader宕机了,那么客户端会感知到这个消息没发送成功,他会重试再次发送消息过去。
    此时可能Partition 2的Follower变成Leader了,此时ISR列表里只有最新的这个Follower转变成的Leader了,那么只要这个新的Leader接收消息就算成功了。
    在这里插入图片描述
    acks=all 就可以代表数据一定不会丢失了吗?
    当然不是,如果你的Partition只有一个副本,也就是一个Leader,任何Follower都没有,你认为acks=all有用吗?
    当然没用了,因为ISR里就一个Leader,他接收完消息后宕机,也会导致数据丢失。
    所以说,这个acks=all,必须跟ISR列表里至少有2个以上的副本配合使用,起码是有一个Leader和一个Follower才可以。
    这样才能保证说写一条数据过去,一定是2个以上的副本都收到了才算是成功,此时任何一个副本宕机,不会导致数据丢失。

优质劣汰

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

乔-治

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值