mysql集群怎么实现状态机_Kafka 源码解析之副本状态机与分区状态机

[TOC]

上篇讲述了 KafkaController 的启动流程,但是关于分区状态机和副本状态机的初始化并没有触及,分区状态机和副本状态机的内容将在本篇文章深入讲述。分区状态机记录着当前集群所有 Partition 的状态信息以及如何对 Partition 状态转移进行相应的处理;副本状态机则是记录着当前集群所有 Replica 的状态信息以及如何对 Replica 状态转变进行相应的处理。

ReplicaStateMachine

ReplicaStateMachine 记录着集群所有 Replica 的状态信息,它决定着一个 replica 处在什么状态以及它在什么状态下可以转变为什么状态,Kafka 中副本的状态总共有以下七种类型:

NewReplica:这种状态下 Controller 可以创建这个 Replica,这种状态下该 Replica 只能作为 follower,它可以是 Replica 删除后的一个临时状态,它有效的前置状态是 NonExistentReplica;

OnlineReplica:一旦这个 Replica 被分配到指定的 Partition 上,并且 Replica 创建完成,那么它将会被置为这个状态,在这个状态下,这个 Replica 既可以作为 leader 也可以作为 follower,它有效的前置状态是 NewReplica、OnlineReplica 或 OfflineReplica;

OfflineReplica:如果一个 Replica 挂掉(所在的节点宕机或者其他情况),该 Replica 将会被转换到这个状态,它有的效前置状态是 NewReplica、OfflineReplica 或者 OnlineReplica;

ReplicaDeletionStarted:Replica 开始删除时被置为的状态,它有效的前置状态是 OfflineReplica;

ReplicaDeletionSuccessful:如果 Replica 在删除时没有遇到任何错误信息,它将被置为这个状态,这个状态代表该 Replica 的数据已经从节点上清除了,它有效的前置状态是 ReplicaDeletionStarted;

ReplicaDeletionIneligible:如果 Replica 删除失败,它将会转移到这个状态,这个状态意思是非法删除,也就是删除是无法成功的,它有效的前置状态是 ReplicaDeletionStarted;

NonExistentReplica:如果 Replica 删除成功,它将被转移到这个状态,它有效的前置状态是:ReplicaDeletionSuccessful。

上面的状态中其中后面4是专门为 Replica 删除而服务的,副本状态机转移图如下所示:

565834b60f7e

image.png

这张图是副本状态机的核心,在下面会详细讲述,接下来先看下 KafkaController 在启动时,调用 ReplicaStateMachine 的 startup() 方法初始化的处理过程。

ReplicaStateMachine 初始化

副本状态机初始化的过程如下:

//note: Controller 重新选举后触发的操作

def startup() {

// initialize replica state

//note: 初始化 zk 上所有的 Replica 状态信息(replica 存活的话设置为 Online,不存活的设置为 ReplicaDeletionIneligible)

initializeReplicaState()

// set started flag

hasStarted.set(true)

// move all Online replicas to Online

//note: 将存活的副本状态转变为 OnlineReplica

handleStateChanges(controllerContext.allLiveReplicas(), OnlineReplica)

info("Started replica state machine with initial state -> " + replicaState.toString())

}

在这个方法中,ReplicaStateMachine 先调用 initializeReplicaState() 方法初始化集群中所有 Replica 的状态信息,如果 Replica 所在机器是 alive 的,那么将其状态设置为 OnlineReplica,否则设置为 ReplicaDeletionIneligible 状态,这里只是将 Replica 的状态信息更新副本状态机的缓存 replicaState 中,并没有真正进行状态转移的操作。

//note: 初始化所有副本的状态信息

private def initializeReplicaState() {

for((topicPartition, assignedReplicas)

val topic = topicPartition.topic

val partition = topicPartition.partition

assignedReplicas.foreach { replicaId =>

val partitionAndReplica = PartitionAndReplica(topic, partition, replicaId)

if (controllerContext.liveBrokerIds.contains(replicaId)) //note: 如果副本是存活,那么将状态都设置为 OnlineReplica

replicaState.put(partitionAndReplica, OnlineReplica)

else

// mark replicas on dead brokers as failed for topic deletion, if they belong to a topic to be deleted.

// This is required during controller failover since during controller failover a broker can go down,

// so the replicas on that broker should be moved to ReplicaDeletionIneligible to be on the safer side.

//note: 将不存活的副本状态设置为 ReplicaDeletionIneligible

replicaState.put(partitionAndReplica, ReplicaDeletionIneligible)

}

}

}

接着第二步调用 handleStateChanges() 将所有存活的副本状态转移为 OnlineReplica 状态,这里才是真正进行状态转移的地方,其具体实现如下:

//note: 用于处理 Replica 状态的变化

def handleStateChanges(replicas: Set[PartitionAndReplica], targetState: ReplicaState,

callbacks: Callbacks = (new CallbackBuilder).build) {

if(replicas.nonEmpty) {

info("Invoking state change to %s for replicas %s".format(targetState, replicas.mkString(",")))

try {

brokerRequestBatch.newBatch()

//note: 状态转变

replicas.foreach(r => handleStateChange(r, targetState, callbacks))

//note: 向 broker 发送相应请求

brokerRequestBatch.sendRequestsToBrokers(controller.epoch)

}catch {

case e: Throwable => error("Error while moving some replicas to %s state".format(targetState), e)

}

}

}

这里是副本状态机 startup() 方法的最后一步,它的目的是将所有 alive 的 Replica 状态转移到 OnlineReplica 状态,由于前面已经这些 alive replica 的状态设置成了 OnlineReplica,所以这里 Replica 的状态转移情况是:OnlineReplica –> OnlineReplica,这个方法主要是做了两件事:

状态转移(这个在下面详细讲述);

发送相应的请求。

副本的状态转移

这里以要转移的 TargetState 区分做详细详细讲解,当 TargetState 分别是 NewReplica、ReplicaDeletionStarted、ReplicaDeletionIneligible、ReplicaDeletionSuccessful、NonExistentReplica、OnlineReplica 或者 OfflineReplica 时,副本状态机所做的事情。

TargetState: NewReplica

NewReplica 这个状态是 Replica 准备开始创建是的一个状态,其实现逻辑如下:

val currState = replicaState.getOrElseUpdate(partitionAndReplica, NonExistentReplica)//note: Replica 不存在的话,状态初始化为 NonExistentReplica

assertValidPreviousStates(partitionAndReplica, List(NonExistentReplica), targetState)//note: 验证

// start replica as a follower to the current leader for its partition

//note: 从 zk 获取 Partition 的 leaderAndIsr 信息

val leaderIsrAndControllerEpochOpt = ReplicationUtils.getLeaderIsrAndEpochForPartition(zkUtils, topic, partition)

leaderIsrAndControllerEpochOpt match {

case Some(leaderIsrAndControllerEpoch) =>

if(leaderIsrAndControllerEpoch.leaderAndIsr.leader == replicaId)//note: 这个状态的 Replica 不能作为 leader

throw new StateChangeFailedException("Replica %d for partition %s cannot be moved to NewReplica"

.format(replicaId, topicAndPartition) + "state as it is being requested to become leader")

//note: 向该 replicaId 发送 LeaderAndIsr 请求,这个方法同时也会向所有的 broker 发送 updateMeta 请求

brokerRequestBatch.addLeaderAndIsrRequestForBrokers(List(replicaId),

topic, partition, leaderIsrAndControllerEpoch,

replicaAssignment)

case None => // new leader request will be sent to this replica when one gets elected

}

replicaState.put(partitionAndReplica, NewReplica)//note: 缓存这个 replica 对象的状态

stateChangeLogger.trace("Controller %d epoch %d changed state of replica %d for partition %s from %s to %s"

.format(controllerId, controller.epoch, replicaId, topicAndPartition, currState,

targetState))

当想要把 Replica 的状态转移为 NewReplica 时,副本状态机的处理逻辑如下:

校验 Replica 的前置状态,只有处于 NonExistentReplica 状态的副本才能转移到 NewReplica 状态;

从 zk 中获取该 Topic-Partition 的 LeaderIsrAndControllerEpoch 信息;

如果获取不到上述信息,直接将该 Replica 的状态转移成 NewReplica,然后结束流程(对与新建的 Partition,处于这个状态时,该 Partition 是没有相应的 LeaderAndIsr 信息的);

获取到 Partition 的 LeaderIsrAndControllerEpoch 信息,如果发现该 Partition 的 leader 是当前副本,那么就抛出 StateChangeFailedException 异常,因为处在这个状态的 Replica 是不能被选举为 leader 的;

获取到了 Partition 的 LeaderIsrAndControllerEpoch 信息,并且该 Partition 的 leader 不是当前 replica,那么向该 Partition 的所有 Replica 添加一个 LeaderAndIsr 请求(添加 LeaderAndIsr 请求时,实际上也会向所有的 Broker 都添加一个 Update-Metadata 请求);

最后将该 Replica 的状态转移成 NewReplica,然后结束流程。

TargetState: ReplicaDeletionStarted

这是 Replica 开始删除时的状态,Replica 转移到这种状态的处理实现如下:

assertValidPreviousStates(partitionAndReplica, List(OfflineReplica), targetState)

replicaState.put(partitionAndReplica, ReplicaDeletionStarted)

// send stop replica command

//note: 发送 StopReplica 请求给该副本,并设置 deletePartition=true

brokerRequestBatch.addStopReplicaRequestForBrokers(List(replicaId), topic, partition, deletePartition = true,

callbacks.stopReplicaResponseCallback)

stateChangeLogger.trace("Controller %d epoch %d changed state of replica %d for partition %s from %s to %s"

.format(controllerId, controller.epoch, replicaId, topicAndPartition, currState, targetState))

这部分的实现逻辑:

校验其前置状态,Replica 只能是在 OfflineReplica 的情况下才能转移到这种状态;

更新向该 Replica 的状态为 ReplicaDeletionStarted;

向该 replica 发送 StopReplica 请求(deletePartition = true),收到这请求后,broker 会从物理存储上删除这个 Replica 的数据内容;

如果请求返回的话会触发其回调函数(这部分会在 topic 删除部分讲解)。

TargetState: ReplicaDeletionIneligible

ReplicaDeletionIneligible 是副本删除失败时的状态,Replica 转移到这种状态的处理实现如下:

assertValidPreviousStates(partitionAndReplica, List(ReplicaDeletionStarted), targetState)

replicaState.put(partitionAndReplica, ReplicaDeletionIneligible)

stateChangeLogger.trace("Controller %d epoch %d changed state of replica %d for partition %s from %s to %s"

.format(controllerId, controller.epoch, replicaId, topicAndPartition, currState, targetState))

实现逻辑:

校验其前置状态,Replica 只能是在 ReplicaDeletionStarted 下才能转移这种状态;

更新该 Replica 的状态为 ReplicaDeletionIneligible。

TargetState: ReplicaDeletionSuccessful

ReplicaDeletionSuccessful 是副本删除成功时的状态,Replica 转移到这种状态的处理实现如下:

assertValidPreviousStates(partitionAndReplica, List(ReplicaDeletionStarted), targetState)

replicaState.put(partitionAndReplica, ReplicaDeletionSuccessful)

stateChangeLogger.trace("Controller %d epoch %d changed state of replica %d for partition %s from %s to %s"

.format(controllerId, controller.epoch, replicaId, topicAndPartition, currState, targetState))

实现逻辑:

检验其前置状态,Replica 只能是在 ReplicaDeletionStarted 下才能转移这种状态;

更新该 Replica 的状态为 ReplicaDeletionSuccessful。

TargetState: NonExistentReplica

NonExistentReplica 是副本完全删除、不存在这个副本的状态,Replica 转移到这种状态的处理实现如下:

assertValidPreviousStates(partitionAndReplica, List(ReplicaDeletionSuccessful), targetState)

// remove this replica from the assigned replicas list for its partition

val currentAssignedReplicas = controllerContext.partitionReplicaAssignment(topicAndPartition)

//note: 从 controller 和副本状态机的缓存中清除这个 Replica 的记录西溪

controllerContext.partitionReplicaAssignment.put(topicAndPartition, currentAssignedReplicas.filterNot(_ == replicaId))

replicaState.remove(partitionAndReplica)

stateChangeLogger.trace("Controller %d epoch %d changed state of replica %d for partition %s from %s to %s"

.format(controllerId, controller.epoch, replicaId, topicAndPartition, currState, targetState))

实现逻辑:

检验其前置状态,Replica 只能是在 ReplicaDeletionSuccessful 下才能转移这种状态;

在 controller 的 partitionReplicaAssignment 删除这个 Partition 对应的 replica 信息;

从 Controller 和副本状态机中将这个 Topic 从缓存中删除。

TargetState: OnlineReplica

OnlineReplica 是副本正常工作时的状态,此时的 Replica 既可以作为 leader 也可以作为 follower,Replica 转移到这种状态的处理实现如下:

assertValidPreviousStates(partitionAndReplica,

List(NewReplica, OnlineReplica, OfflineReplica, ReplicaDeletionIneligible), targetState)

replicaState(partitionAndReplica) match {

case NewReplica => //note: NewReplica --> OnlineReplica

// add this replica to the assigned replicas list for its partition

//note: 向 the assigned replicas list 添加这个 replica(正常情况下这些 replicas 已经更新到 list 中了)

val currentAssignedReplicas = controllerContext.partitionReplicaAssignment(topicAndPartition)

if(!currentAssignedReplicas.contains(replicaId))

controllerContext.partitionReplicaAssignment.put(topicAndPartition, currentAssignedReplicas :+ replicaId)

stateChangeLogger.trace("Controller %d epoch %d changed state of replica %d for partition %s from %s to %s"

.format(controllerId, controller.epoch, replicaId, topicAndPartition, currState,

targetState))

case _ => //note: OnlineReplica/OfflineReplica/ReplicaDeletionIneligible --> OnlineReplica

// check if the leader for this partition ever existed

//note: 如果该 Partition 的 LeaderIsrAndControllerEpoch 信息存在,那么就更新副本的状态,并发送相应的请求

controllerContext.partitionLeadershipInfo.get(topicAndPartition) match {

case Some(leaderIsrAndControllerEpoch) =>

brokerRequestBatch.addLeaderAndIsrRequestForBrokers(List(replicaId), topic, partition, leaderIsrAndControllerEpoch,

replicaAssignment)

replicaState.put(partitionAndReplica, OnlineReplica)

stateChangeLogger.trace("Controller %d epoch %d changed state of replica %d for partition %s from %s to %s"

.format(controllerId, controller.epoch, replicaId, topicAndPartition, currState, targetState))

case None => // that means the partition was never in OnlinePartition state, this means the broker never

// started a log for that partition and does not have a high watermark value for this partition

}

}

replicaState.put(partitionAndReplica, OnlineReplica)

从前面的状态转移图中可以看出,当 Replica 处在 NewReplica、OnlineReplica、OfflineReplica 或者 ReplicaDeletionIneligible 状态时,Replica 是可以转移到 OnlineReplica 状态的,下面分两种情况讲述:

NewReplica –> OnlineReplica 的处理逻辑如下:

从 Controller 的 partitionReplicaAssignment 中获取这个 Partition 的 AR;

如果 Replica 不在 AR 中的话,那么就将其添加到 Partition 的 AR 中;

最后将 Replica 的状态设置为 OnlineReplica 状态。

OnlineReplica/OfflineReplica/ReplicaDeletionIneligible –> OnlineReplica 的处理逻辑如下:

从 Controller 的 partitionLeadershipInfo 中获取 Partition 的 LeaderAndIsr 信息;

如果该信息存在,那么就向这个 Replica 所在 broker 添加这个 Partition 的 LeaderAndIsr 请求,并将 Replica 的状态设置为 OnlineReplica 状态;

否则不做任务处理;

最后更新R Replica 的状态为 OnlineReplica。

TargetState: OfflineReplica

OfflineReplica 是 Replica 所在 Broker 掉线时 Replica 的状态,转移到这种状态的处理逻辑如下:

assertValidPreviousStates(partitionAndReplica,

List(NewReplica, OnlineReplica, OfflineReplica, ReplicaDeletionIneligible), targetState)

// send stop replica command to the replica so that it stops fetching from the leader

//note: 发送 StopReplica 请求给该副本,先停止副本同步

brokerRequestBatch.addStopReplicaRequestForBrokers(List(replicaId), topic, partition, deletePartition = false)

// As an optimization, the controller removes dead replicas from the ISR

val leaderAndIsrIsEmpty: Boolean =

controllerContext.partitionLeadershipInfo.get(topicAndPartition) match {

case Some(_) =>

controller.removeReplicaFromIsr(topic, partition, replicaId) match { //note: 从 isr 中移除这个副本(前提是 ISR 有其他有效副本)

case Some(updatedLeaderIsrAndControllerEpoch) =>

// send the shrunk ISR state change request to all the remaining alive replicas of the partition.

//note: 发送 LeaderAndIsr 请求给剩余的其他副本,因为 ISR 变动了

val currentAssignedReplicas = controllerContext.partitionReplicaAssignment(topicAndPartition)

if (!controller.deleteTopicManager.isPartitionToBeDeleted(topicAndPartition)) {

brokerRequestBatch.addLeaderAndIsrRequestForBrokers(currentAssignedReplicas.filterNot(_ == replicaId),

topic, partition, updatedLeaderIsrAndControllerEpoch, replicaAssignment)

}

replicaState.put(partitionAndReplica, OfflineReplica)

stateChangeLogger.trace("Controller %d epoch %d changed state of replica %d for partition %s from %s to %s"

.format(controllerId, controller.epoch, replicaId, topicAndPartition, currState, targetState))

false

case None =>

true

}

case None =>

true

}

if (leaderAndIsrIsEmpty && !controller.deleteTopicManager.isPartitionToBeDeleted(topicAndPartition))

throw new StateChangeFailedException(

"Failed to change state of replica %d for partition %s since the leader and isr path in zookeeper is empty"

.format(replicaId, topicAndPartition))

处理逻辑如下:

校验其前置状态,只有 Replica 在 NewReplica、OnlineReplica、OfflineReplica 或者 ReplicaDeletionIneligible 状态时,才能转移到这种状态;

向该 Replica 所在节点发送 StopReplica 请求(deletePartition = false);

调用 Controller 的 removeReplicaFromIsr() 方法将该 replica 从 Partition 的 isr 移除这个 replica(前提 isr 中还有其他有效副本),然后向该 Partition 的其他副本发送 LeaderAndIsr 请求;

更新这个 Replica 的状态为 OfflineReplica。

状态转移触发的条件

这里主要是看一下上面 Replica 各种转移的触发的条件,整理的结果如下表所示,部分内容会在后续文章讲解。

565834b60f7e

image.png

565834b60f7e

image.png

PartitionStateMachine

PartitionStateMachine 记录着集群所有 Partition 的状态信息,它决定着一个 Partition 处在什么状态以及它在什么状态下可以转变为什么状态,Kafka 中 Partition 的状态总共有以下四种类型:

NonExistentPartition:这个代表着这个 Partition 之前没有被创建过或者之前创建了现在又被删除了,它有效的前置状态是 OfflinePartition;

NewPartition:Partition 创建后,它将处于这个状态,这个状态的 Partition 还没有 leader 和 isr,它有效的前置状态是 NonExistentPartition;

OnlinePartition:一旦这个 Partition 的 leader 被选举出来了,它将处于这个状态,它有效的前置状态是 NewPartition、OnlinePartition、OfflinePartition;

OfflinePartition:如果这个 Partition 的 leader 掉线,这个 Partition 将被转移到这个状态,它有效的前置状态是 NewPartition、OnlinePartition、OfflinePartition。

分区状态机转移图如下所示:

565834b60f7e

image.png

这张图是分区状态机的核心,在下面会详细讲述,接下来先看下 KafkaController 在启动时,调用 PartitionStateMachine 的 startup() 方法初始化的处理过程。

PartitionStateMachine 初始化

PartitionStateMachine 的初始化方法如下所示:

//note: Controller 启动时触发

//note: 初始化所有 Partition 的状态(从 zk 获取), 然后对于 new/offline Partition 触发选主(选主成功的话,变为 OnlinePartition)

def startup() {

// initialize partition state

//note: 初始化 partition 的状态,如果 leader 所在 broker 是 alive 的,那么状态为 OnlinePartition,否则为 OfflinePartition

initializePartitionState()

// set started flag

hasStarted.set(true)

// try to move partitions to online state

//note: 为所有处理 NewPartition 或 OnlinePartition 状态 Partition 选举 leader

triggerOnlinePartitionStateChange()

info("Started partition state machine with initial state -> " + partitionState.toString())

}

在这个方法中,PartitionStateMachine 先调用 initializePartitionState() 方法初始化集群中所有 Partition 的状态信息:

如果该 Partition 有 LeaderAndIsr 信息,那么如果 Partition leader 所在的机器是 alive 的,那么将其状态设置为 OnlinePartition,否则设置为 OfflinePartition 状态;

如果该 Partition 没有 LeaderAndIsr 信息,那么将其状态设置为 NewPartition。

这里只是将 Partition 的状态信息更新分区状态机的缓存 partitionState 中,并没有真正进行状态的转移。

//note: 根据从 zk 获取的所有 Partition,进行状态初始化

private def initializePartitionState() {

for (topicPartition

// check if leader and isr path exists for partition. If not, then it is in NEW state

controllerContext.partitionLeadershipInfo.get(topicPartition) match {

case Some(currentLeaderIsrAndEpoch) =>

// else, check if the leader for partition is alive. If yes, it is in Online state, else it is in Offline state

if (controllerContext.liveBrokerIds.contains(currentLeaderIsrAndEpoch.leaderAndIsr.leader))

// leader is alive

//note: 有 LeaderAndIsr 信息,并且 leader 存活,设置为 OnlinePartition 状态

partitionState.put(topicPartition, OnlinePartition)

else

//note: 有 LeaderAndIsr 信息,但是 leader 不存活,设置为 OfflinePartition 状态

partitionState.put(topicPartition, OfflinePartition)

case None =>

//note: 没有 LeaderAndIsr 信息,设置为 NewPartition 状态(这个 Partition 还没有)

partitionState.put(topicPartition, NewPartition)

}

}

}

在初始化的第二步,将会调用 triggerOnlinePartitionStateChange() 方法,为所有的状态为 NewPartition/OnlinePartition 的 Partition 进行 leader 选举,选举成功后的话,其状态将会设置为 OnlinePartition,调用的 Leader 选举方法是 OfflinePartitionLeaderSelector(具体实现参考链接)。

//note: 这个方法是在 controller 选举后或 broker 上线或下线时时触发的

def triggerOnlinePartitionStateChange() {

try {

brokerRequestBatch.newBatch()

// try to move all partitions in NewPartition or OfflinePartition state to OnlinePartition state except partitions

// that belong to topics to be deleted

//note: 开始为所有状态在 NewPartition or OfflinePartition 状态的 partition 更新状态(除去将要被删除的 topic)

for((topicAndPartition, partitionState)

if !controller.deleteTopicManager.isTopicQueuedUpForDeletion(topicAndPartition.topic)) {

if(partitionState.equals(OfflinePartition) || partitionState.equals(NewPartition))

//note: 尝试为处在 OfflinePartition 或 NewPartition 状态的 Partition 选主,成功后转换为 OnlinePartition

handleStateChange(topicAndPartition.topic, topicAndPartition.partition, OnlinePartition, controller.offlinePartitionSelector,

(new CallbackBuilder).build)

}

//note: 发送请求给所有的 broker,包括 LeaderAndIsr 请求和 UpdateMetadata 请求(这里只是添加到 Broker 对应的 RequestQueue 中,后台有线程去发送)

brokerRequestBatch.sendRequestsToBrokers(controller.epoch)

} catch {

case e: Throwable => error("Error while moving some partitions to the online state", e)

// TODO: It is not enough to bail out and log an error, it is important to trigger leader election for those partitions

}

}

上面方法的目的是为尝试将所有的状态为 NewPartition/OnlinePartition 的 Partition 状态转移到 OnlinePartition,这个方法主要是做了两件事:

状态转移(这个在下面详细讲述);

发送相应的请求。

分区的状态转移

这里以要转移的 TargetState 区分做详细详细讲解,当 TargetState 分别是 NewPartition、OfflinePartition、NonExistentPartition 或者 OnlinePartition 时,副本状态机所做的事情。

TargetState: NewPartition

NewPartition 是 Partition 刚创建时的一个状态,其处理逻辑如下:

//note: 如果该 Partition 的状态不存在,默认为 NonExistentPartition

val currState = partitionState.getOrElseUpdate(topicAndPartition, NonExistentPartition)

// pre: partition did not exist before this

assertValidPreviousStates(topicAndPartition, List(NonExistentPartition), NewPartition)

partitionState.put(topicAndPartition, NewPartition) //note: 缓存 partition 的状态

val assignedReplicas = controllerContext.partitionReplicaAssignment(topicAndPartition).mkString(",")

stateChangeLogger.trace("Controller %d epoch %d changed partition %s state from %s to %s with assigned replicas %s"

.format(controllerId, controller.epoch, topicAndPartition, currState, targetState,

assignedReplicas))

实现逻辑:

校验其前置状态,它有效的前置状态为 NonExistentPartition;

将该 Partition 的状态转移为 NewPartition 状态,并且更新到缓存中。

TargetState: OnlinePartition

OnlinePartition 是一个 Partition 正常工作时的状态,这个状态下的 Partition 已经成功选举出了 leader 和 isr 信息,其实现逻辑如下:

//note: 判断 Partition 之前的状态是否可以转换为目的状态

assertValidPreviousStates(topicAndPartition, List(NewPartition, OnlinePartition, OfflinePartition), OnlinePartition)

partitionState(topicAndPartition) match {

case NewPartition => //note: 新建的 Partition

//note: 选举 leader 和 isr,更新到 zk 和 controller 中,如果没有存活的 replica,抛出异常

// initialize leader and isr path for new partition

initializeLeaderAndIsrForPartition(topicAndPartition)

case OfflinePartition => //note: leader 挂掉的 Partition

//note: 进行 leader 选举,更新到 zk 及 controller 缓存中,失败的抛出异常

electLeaderForPartition(topic, partition, leaderSelector)

case OnlinePartition => // invoked when the leader needs to be re-elected

//note:这种只有在 leader 需要重新选举时才会触发

electLeaderForPartition(topic, partition, leaderSelector)

case _ => // should never come here since illegal previous states are checked above

}

partitionState.put(topicAndPartition, OnlinePartition)

val leader = controllerContext.partitionLeadershipInfo(topicAndPartition).leaderAndIsr.leader

stateChangeLogger.trace("Controller %d epoch %d changed partition %s from %s to %s with leader %d"

.format(controllerId, controller.epoch, topicAndPartition, currState, targetState, leader))

实现逻辑:

校验这个 Partition 的前置状态,有效的前置状态是:NewPartition、OnlinePartition 或者 OfflinePartition;

如果前置状态是 NewPartition,那么为该 Partition 选举 leader 和 isr,更新到 zk 和 controller 的缓存中,如果副本没有处于 alive 状态的话,就抛出异常;

如果前置状态是 OnlinePartition,那么只是触发 leader 选举,在 OnlinePartition –> OnlinePartition 这种状态转移时,需要传入 leader 选举的方法,触发该 Partition 的 leader 选举;

如果前置状态是 OfflinePartition,同上,也是触发 leader 选举。

更新 Partition 的状态为 OnlinePartition。

对于以上这几种情况,无论前置状态是什么,最后都会触发这个 Partition 的 leader 选举,leader 成功后,都会触发向这个 Partition 的所有 replica 发送 LeaderAndIsr 请求。

TargetState: OfflinePartition

OfflinePartition 是这个 Partition 的 leader 挂掉时转移的一个状态,如果 Partition 转移到这个状态,那么就意味着这个 Partition 没有了可用 leader。

// pre: partition should be in New or Online state

assertValidPreviousStates(topicAndPartition, List(NewPartition, OnlinePartition, OfflinePartition), OfflinePartition)

// should be called when the leader for a partition is no longer alive

stateChangeLogger.trace("Controller %d epoch %d changed partition %s state from %s to %s"

.format(controllerId, controller.epoch, topicAndPartition, currState, targetState))

partitionState.put(topicAndPartition, OfflinePartition)

// post: partition has no alive leader

实现逻辑:

校验其前置状态,它有效的前置状态为 NewPartition、OnlinePartition 或者 OfflinePartition;

将该 Partition 的状态转移为 OfflinePartition 状态,并且更新到缓存中。

TargetState: NonExistentPartition

NonExistentPartition 代表了已经处于 OfflinePartition 状态的 Partition 已经从 metadata 和 zk 中删除后进入的状态。

// pre: partition should be in Offline state

assertValidPreviousStates(topicAndPartition, List(OfflinePartition), NonExistentPartition)

stateChangeLogger.trace("Controller %d epoch %d changed partition %s state from %s to %s"

.format(controllerId, controller.epoch, topicAndPartition, currState, targetState))

partitionState.put(topicAndPartition, NonExistentPartition)

// post: partition state is deleted from all brokers and zookeeper

实现逻辑:

校验其前置状态,它有效的前置状态为 OfflinePartition;

将该 Partition 的状态转移为 NonExistentPartition 状态,并且更新到缓存中。

状态转移触发的条件

这里主要是看一下上面 Partition 各种转移的触发的条件,整理的结果如下表所示,部分内容会在后续文章讲解。

565834b60f7e

image.png

565834b60f7e

image.png

上面就是副本状态机与分区状态机的所有内容,这里只是单纯地讲述了一下这两种状态机,后续文章会开始介绍 Controller 一些其他内容,包括 Partition 迁移、Topic 新建、Topic 下线等,这些内容都会用到这篇文章讲述的内容。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值