Zookeeper概述

1 分布式应用程序

分布式应用可以在给定时间(同时)通过在它们自己之间协调快速和有效的方式完成特定任务而在网络中的多个系统上运行。 通常,通过使用所有涉及的系统的计算能力,分布式应用可以在几分钟内完成非分布式应用(在单个系统中运行)需要数小时完成的复杂和耗时的任务。

  • 通过将分布式应用程序配置为在更多系统上运行,可以进一步减少完成任务的时间
    • 集群:运行分布式应用的一组系统
    • 节点:集群中运行的每个机器
  • 分布式应用程序有两部分, Server 和 Client 应用程序。
    • 服务器应用程序实际上是分布式的,并具有通用接口,以便客户端可以连接到集群中的任何服务器,并获得相同的结果。
    • 客户端应用程序是与分布式应用程序交互的工具。

2 分布式应用程序的特点

  • 优点
    • 可靠性:单个或几个系统的故障不会使整个系统出现故障。
    • 可扩展性:可以通过添加更多机器,在应用程序配置中进行微小更改而不增加停机时间,从而提高性能。
    • 透明:隐藏系统的复杂性,并将其显示为单个实体/应用程序。
  • 挑战
    • 种族条件:两个或多个机器尝试执行特定任务,实际上只需在任何给定时间由单个机器完成。 例如,共享资源只能在任何给定时间由单个机器修改。
    • 死锁:两个或多个操作等待互相无限期完成。
    • 不一致:数据部分失败。

3 Apache ZooKeeper简介

Apache ZooKeeper是由集群(节点组)使用的一种服务,用于在自身之间协调并使用鲁棒同步技术维护共享数据。 ZooKeeper本身是一个分布式应用程序,提供用于编写分布式应用程序的服务。

  • ZooKeeper提供的常见服务如下 :
    • 命名服务:按名称标识集群中的节点。 它类似于DNS,但是对于节点。
    • 配置管理:加入节点的系统的最新和最新的配置信息。
    • 集群管理:实时加入/退出集群中的节点和节点状态。
    • 选举算法:选择节点作为协调目的的leader。
    • 锁定和同步服务:在修改数据时锁定数据。 此机制可帮助您在连接其他分布式应用程序(如Apache HBase)时进行自动故障恢复。
    • 高度可靠的数据注册表:即使一个或几个节点关闭时数据的可用性。
  • 分布式应用程序提供了很多好处,但它们也提出了一些复杂和难以克服的挑战。
    • ZooKeeper框架提供了一个完整的机制来克服所有的挑战。
    • 使用故障安全同步方法来处理比赛条件和死锁。
    • 另一个主要缺点是数据的不一致性,ZooKeeper使用原子性解析。

4 ZooKeeper客户端 - 服务器架构

在这里插入图片描述

  • Client客户端,我们的分布式应用程序集群中的一个节点,从服务器访问信息。 对于特定的时间间隔,每个客户端向服务器发送消息以使服务器知道客户端是活着的。类似地,当客户端连接时,服务器发送确认。 如果连接的服务器没有响应,客户端会自动将消息重定向到另一个服务器。
  • Server 服务器,我们的ZooKeeper集合中的一个节点,为客户端提供所有的服务。 向客户端发送确认,通知服务器处于活动状态。
  • Ensemble ZooKeeper服务器组。 形成整体所需的最小节点数为3。
  • Leader 服务器节点,如果任何连接的节点发生故障,则执行自动恢复。 领导者在服务启动时被选举。
  • Follower 服务器节点跟随引导指令。

5 ZooKeeper 分层命名空间

下图描述了用于内存表示的ZooKeeper文件系统的树结构。

  • ZooKeeper节点称为 znode 。 每个znode由一个名称标识,并用路径(/)序列分隔。
  • 在图中,首先有一个根 znode 以“/"分隔。 在根目录下,您有两个逻辑命名空间 config 和 workers 。
    • config 命名空间用于集中配置管理, workers 命名空间用于命名
    • 在 config 命名空间下,每个znode最多可存储1MB的数据。 这类似于UNIX文件系统,除了父znode也可以存储数据。 这种结构的主要目的是存储同步数据并描述znode的元数据。 此结构称为 ZooKeeper数据模型

在这里插入图片描述

  • ZooKeeper数据模型中的每个znode都维护着一个 stat 结构。 A stat仅提供znode的元数据。 它由版本号操作控制列表(ACL),时间戳数据长度组成
    • 版本号 - 每个znode都有版本号,这意味着每次与znode关联的数据发生更改时,其对应的版本号也会增加。 当多个zookeeper客户端尝试在同一znode上执行操作时,版本号的使用很重要。
    • 操作控制列表(ACL) - ACL基本上是访问znode的认证机制。 它管理所有znode读取和写入操作。
    • 时间戳 - 时间戳表示创建和修改znode所经过的时间。 它通常表示为毫秒。 ZooKeeper标识“事务ID"(zxid)对znode的每个更改。 Zxid 是唯一的,并且为每个事务维护时间,以便您可以轻松地确定从一个请求到另一个请求的时间。
    • 数据长度 - 存储在znode中的数据总量是数据长度。 您最多可以存储1MB的数据。

6 Zookeeper 工作流

  • 一旦ZooKeeper集合启动,它将等待客户端连接。 客户端将连接到ZooKeeper集合中的一个节点。 它可以是领导者或跟随者节点。 一旦客户端被连接,该节点向该特定客户端分配会话ID并向该客户端发送确认。 如果客户端没有得到确认,它只是尝试连接ZooKeeper集合中的另一个节点。 一旦连接到节点,客户端将以定期间隔向节点发送心跳,以确保连接不会丢失。
  • 如果客户端想要读取特定的znode,会向具有znode路径的节点发送读取请求,并且节点通过从其自己的数据库获取它来返回所请求的znode 。 为此,在ZooKeeper集合中读取速度快。
  • 如果客户端想要将数据存储在ZooKeeper集合中,它会将znode路径和数据发送到服务器。 连接的服务器将该请求转发给领导者,然后领导者将向所有的跟随者重新发出写入请求。 如果只有大多数节点成功响应,则写请求将成功,并且成功的返回码将被发送到客户端。 否则,写入请求将失败。 严格的大多数节点被称为 Quorum 。

在这里插入图片描述

  • Write 写过程由领导节点处理。 领导者将写请求转发到所有znode,并等待znode的答案。 如果znode的一半回复,则写入过程完成。
  • Read 读取由特定连接的znode在内部执行,因此不需要与群集交互。
  • 复制数据库 它用于在zookeeper中存储数据。 每个znode都有自己的数据库,每个znode在一致性的帮助下每次都有相同的数据。
  • Leader Leader是负责处理写入请求的Znode。
  • Follower 关注者从客户端接收写请求并将它们转发到领导znode。
  • 请求处理器 只存在于领导节点。 它管理来自从节点的写请求。
  • 原子广播 负责将从领导节点到从节点的变化广播。

7 ZooKeeper 选举机制

7.1 ZooKeeper选举概述

Leader选举是保证分布式数据一致性的关键所在。当Zookeeper集群中的一台服务器出现以下两种情况之一时,需要进入Leader选举。

  • 服务器初始化启动。
  • 服务器运行期间无法和Leader保持连接。

7.1.1 两种情况分析

  • 服务器启动时期的Leader选举:若进行Leader选举,则至少需要两台机器,这里选取3台机器组成的服务器集群为例。在集群初始化阶段,当有一台服务器Server1启动时,其单独无法进行和完成Leader选举,当第二台服务器Server2启动时,此时两台机器可以相互通信,每台机器都试图找到Leader,于是进入Leader选举过程。选举过程如下
    • 每个Server发出一个投票。由于是初始情况,Server1和Server2都会将自己作为Leader服务器来进行投票,每次投票会包含所推举的服务器的myid和ZXID,使用(myid, ZXID)来表示,此时Server1的投票为(1, 0),Server2的投票为(2, 0),然后各自将这个投票发给集群中其他机器。
    • 接受来自各个服务器的投票。集群的每个服务器收到投票后,首先判断该投票的有效性,如检查是否是本轮投票、是否来自LOOKING状态的服务器。
    • 处理投票。针对每一个投票,服务器都需要将别人的投票和自己的投票进行PK,PK规则如下
      • 优先检查ZXID。ZXID比较大的服务器优先作为Leader
      • 如果ZXID相同,那么就比较myid。myid较大的服务器作为Leader服务器
      • eg:对于Server1而言,它的投票是(1, 0),接收Server2的投票为(2, 0),首先会比较两者的ZXID,均为0,再比较myid,此时Server2的myid最大,于是更新自己的投票为(2, 0),然后重新投票,对于Server2而言,其无须更新自己的投票,只是再次向集群中所有机器发出上一次投票信息即可。
    • 统计投票。每次投票后,服务器都会统计投票信息,判断是否已经有过半机器接受到相同的投票信息,对于Server1、Server2而言,都统计出集群中已经有两台机器接受了(2, 0)的投票信息,此时便认为已经选出了Leader。
    • 改变服务器状态。一旦确定了Leader,每个服务器就会更新自己的状态,如果是Follower,那么就变更为FOLLOWING,如果是Leader,就变更为LEADING。
  • 服务器运行时期的Leader选举:在Zookeeper运行期间,Leader与非Leader服务器各司其职,即便当有非Leader服务器宕机或新加入,此时也不会影响Leader,但是一旦Leader服务器挂了,那么整个集群将暂停对外服务,进入新一轮Leader选举,其过程和启动时期的Leader选举过程基本一致。假设正在运行的有Server1、Server2、Server3三台服务器,当前Leader是Server2,
    • 变更状态。Leader挂后,余下的非Observer服务器都会讲自己的服务器状态变更为LOOKING,然后开始进入Leader选举过程。
    • 每个Server会发出一个投票。在运行期间,每个服务器上的ZXID可能不同,此时假定Server1的ZXID为123,Server3的ZXID为122;在第一轮投票中,Server1和Server3都会投自己,产生投票(1, 123),(3, 122),然后各自将投票发送给集群中所有机器。
    • 接收来自各个服务器的投票。与启动时过程相同。
    • 处理投票。与启动时过程相同,此时,Server1将会成为Leader。
    • 统计投票。与启动时过程相同。
    • 改变服务器的状态。与启动时过程相同

7.2 选举实现细节

  • 服务器状态:服务器具有四种状态
    • LOOKING:寻找Leader状态。当服务器处于该状态时,它会认为当前集群中没有Leader,因此需要进入Leader选举状态。
    • FOLLOWING:跟随者状态。表明当前服务器角色是Follower。
    • LEADING:领导者状态。表明当前服务器角色是Leader。
    • OBSERVING:观察者状态。表明当前服务器角色是Observer。
  • 投票数据结构:每个投票中包含了两个最基本的信息,所推举服务器的SID和ZXID,投票(Vote)在Zookeeper中包含字段如下
    • id:被推举的Leader的SID。
    • zxid:被推举的Leader事务ID。
    • electionEpoch:逻辑时钟,用来判断多个投票是否在同一轮选举周期中,该值在服务端是一个自增序列,每次进入新一轮的投票后,都会对该值进行加1操作。
    • peerEpoch:被推举的Leader的epoch。
    • state:当前服务器的状态。
  • QuorumCnxManager:网络I/O,每台服务器在启动的过程中,会启动一个QuorumPeerManager,负责各台服务器之间的底层Leader选举过程中的网络通信。
    • 消息队列。QuorumCnxManager内部维护了一系列的队列,用来保存接收到的、待发送的消息以及消息的发送器,除接收队列以外,其他队列都按照SID分组形成队列集合,如一个集群中除了自身还有3台机器,那么就会为这3台机器分别创建一个发送队列,互不干扰。
      • recvQueue:消息接收队列,用于存放那些从其他服务器接收到的消息。
      • queueSendMap:消息发送队列,用于保存那些待发送的消息,按照SID进行分组。
      • senderWorkerMap:发送器集合,每个SenderWorker消息发送器,都对应一台远程Zookeeper服务器,负责消息的发送,也按照SID进行分组。
      • lastMessageSent:最近发送过的消息,为每个SID保留最近发送过的一个消息。
  • 建立连接
    • 为了能够相互投票,Zookeeper集群中的所有机器都需要两两建立起网络连接。QuorumCnxManager在启动时会创建一个ServerSocket来监听Leader选举的通信端口(默认为3888)。
    • 开启监听后,Zookeeper能够不断地接收到来自其他服务器的创建连接请求,在接收到其他服务器的TCP连接请求时,会进行处理。
    • 为了避免两台机器之间重复地创建TCP连接,Zookeeper只允许SID大的服务器主动和其他机器建立连接,否则断开连接。
    • 在接收到创建连接请求后,服务器通过对比自己和远程服务器的SID值来判断是否接收连接请求,如果当前服务器发现自己的SID更大,那么会断开当前连接,然后自己主动和远程服务器建立连接。
    • 一旦连接建立,就会根据远程服务器的SID来创建相应的消息发送器SendWorker和消息接收器RecvWorker,并启动。
  • 消息接收与发送
    • 消息接收:由消息接收器RecvWorker负责,由于Zookeeper为每个远程服务器都分配一个单独的RecvWorker,因此,每个RecvWorker只需要不断地从这个TCP连接中读取消息,并将其保存到recvQueue队列中。
    • 消息发送:由于Zookeeper为每个远程服务器都分配一个单独的SendWorker,因此,每个SendWorker只需要不断地从对应的消息发送队列中获取出一个消息发送即可,同时将这个消息放入lastMessageSent中。在SendWorker中,一旦Zookeeper发现针对当前服务器的消息发送队列为空,那么此时需要从lastMessageSent中取出一个最近发送过的消息来进行再次发送,这是为了解决接收方在消息接收前或者接收到消息后服务器挂了,导致消息尚未被正确处理。同时,Zookeeper能够保证接收方在处理消息时,会对重复消息进行正确的处理。

8 FastLeaderElection:选举算法核心

  • 外部投票:特指其他服务器发来的投票。
  • 内部投票:服务器自身当前的投票。
  • 选举轮次:Zookeeper服务器Leader选举的轮次,即logicalclock。
  • PK:对内部投票和外部投票进行对比来确定是否需要变更内部投票。

(1)选票管理

  • sendqueue:选票发送队列,用于保存待发送的选票。
  • recvqueue:选票接收队列,用于保存接收到的外部投票。
  • WorkerReceiver:选票接收器。其会不断地从QuorumCnxManager中获取其他服务器发来的选举消息,并将其转换成一个选票,然后保存到recvqueue中,在选票接收过程中,如果发现该外部选票的选举轮次小于当前服务器的,那么忽略该外部投票,同时立即发送自己的内部投票。
  • WorkerSender:选票发送器,不断地从sendqueue中获取待发送的选票,并将其传递到底层QuorumCnxManager中。

(2)算法核心
在这里插入图片描述
上图展示了FastLeaderElection模块是如何与底层网络I/O进行交互的。Leader选举的基本流程如下

  1. 自增选举轮次。Zookeeper规定所有有效的投票都必须在同一轮次中,在开始新一轮投票时,会首先对logicalclock进行自增操作。
  2. 初始化选票。在开始进行新一轮投票之前,每个服务器都会初始化自身的选票,并且在初始化阶段,每台服务器都会将自己推举为Leader。
  3. 发送初始化选票。完成选票的初始化后,服务器就会发起第一次投票。Zookeeper会将刚刚初始化好的选票放入sendqueue中,由发送器WorkerSender负责发送出去。
  4. 接收外部投票。每台服务器会不断地从recvqueue队列中获取外部选票。如果服务器发现无法获取到任何外部投票,那么就会立即确认自己是否和集群中其他服务器保持着有效的连接,如果没有连接,则马上建立连接,如果已经建立了连接,则再次发送自己当前的内部投票。
  5. 判断选举轮次。在发送完初始化选票之后,接着开始处理外部投票。在处理外部投票时,会根据选举轮次来进行不同的处理。
  • 外部投票的选举轮次大于内部投票。若服务器自身的选举轮次落后于该外部投票对应服务器的选举轮次,那么就会立即更新自己的选举轮次(logicalclock),并且清空所有已经收到的投票,然后使用初始化的投票来进行PK以确定是否变更内部投票。最终再将内部投票发送出去。
  • 外部投票的选举轮次小于内部投票。若服务器接收的外选票的选举轮次落后于自身的选举轮次,那么Zookeeper就会直接忽略该外部投票,不做任何处理,并返回步骤4。
  • 外部投票的选举轮次等于内部投票。此时可以开始进行选票PK。
  1. 选票PK。在进行选票PK时,符合任意一个条件就需要变更投票。
  • 若外部投票中推举的Leader服务器的选举轮次大于内部投票,那么需要变更投票。
  • 若选举轮次一致,那么就对比两者的ZXID,若外部投票的ZXID大,那么需要变更投票。
  • 若两者的ZXID一致,那么就对比两者的SID,若外部投票的SID大,那么就需要变更投票。
  1. 变更投票。经过PK后,若确定了外部投票优于内部投票,那么就变更投票,即使用外部投票的选票信息来覆盖内部投票,变更完成后,再次将这个变更后的内部投票发送出去。
  2. 选票归档。无论是否变更了投票,都会将刚刚收到的那份外部投票放入选票集合recvset中进行归档。recvset用于记录当前服务器在本轮次的Leader选举中收到的所有外部投票(按照服务队的SID区别,如{(1, vote1), (2, vote2)…})。
  3. 统计投票。完成选票归档后,就可以开始统计投票,统计投票是为了统计集群中是否已经有过半的服务器认可了当前的内部投票,如果确定已经有过半服务器认可了该投票,则终止投票。否则返回步骤4。
  4. 更新服务器状态。若已经确定可以终止投票,那么就开始更新服务器状态,服务器首选判断当前被过半服务器认可的投票所对应的Leader服务器是否是自己,若是自己,则将自己的服务器状态更新为LEADING,若不是,则根据具体情况来确定自己是FOLLOWING或是OBSERVING。

以上10个步骤就是FastLeaderElection的核心,其中步骤4-9会经过几轮循环,直到有Leader选举产生

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值