zookeeper学习

zookeeper介绍

zookeeper工作机制

zookeeper从设计模式角度来理解: 是一个基于观察者模式设计分布式服务管理框架

​ zookeeper负责存储和管理大家都关心的数据, 然后接受观察者的注册, 一旦这些数据的状态发生变化, zookeeper就负责通知已经注册的观察者

特点

请添加图片描述

  1. Zookeeper:一个领导者(Leader),多个跟随者(Follower)组成的集群。
  2. 集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。所以Zookeeper适合安装奇数台服务器。
  3. 全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
  4. 更新请求顺序执行,来自同一个Client的更新请求按其发送顺序依次执行。
  5. 数据更新原子性,一次数据更新要么成功,要么失败。
  6. 实时性,在一定时间范围内,Client能读到最新数据。

数据结构

​ ZooKeeper 数据模型的结构与 Unix 文件系统很类似,整体上可以看作是一棵树,每个节点称做一个 ZNode。每一个 ZNode 默认能够存储 1MB 的数据,每个 ZNode 都可以通过

其路径唯一标识

请添加图片描述

应用场景

​ 提供的服务包括:统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下

线、软负载均衡等。

看文档

zookeeper配置参数解读

配置地址
/opt/module/zookeeper-3.5.7/conf
//配置信息
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial 
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between 
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just 
# example sakes.
dataDir=/opt/module/zookeeper-3.5.7/zkData
# the port at which the clients will connect
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the 
# administrator guide before turning on autopurge.
#
#http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#

#######################cluster##########################
server.2=hadoop102:2888:3888
server.3=hadoop103:2888:3888
server.4=hadoop104:2888:3888
  1. tickTime = 2000:通信心跳时间,Zookeeper服务器与客户端心跳时间,单位毫秒

  2. initLimit = 10LF初始通信时限

    ​ Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量)

  3. syncLimit = 5LF同步通信时限

    ​ Leader和Follower之间通信时间如果超过syncLimit * tickTime,Leader认为Follwer死

  4. dataDir:保存Zookeeper中的数据

    ​ 注意:默认的tmp目录,容易被Linux系统定期删除,所以一般不用默认的tmp目录。

  5. clientPort = 2181:客户端连接端口,通常不做修改。

  6. server.A=B:C:D解读

  • A 是一个数字,表示这个是第几号服务器;集群模式下配置一个文件 myid,这个文件在 dataDir 目录下,这个文件里面有一个数据就是 A 的值,Zookeeper 启动时读取此文件,拿到里面的数据与 zoo.cfg 里面的配置信息比较从而判断到底是哪个 server。
  • B 是这个服务器的地址;
  • C 是这个服务器 Follower 与集群中的 Leader 服务器交换信息的端口;
  • D 是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。

客户端向服务端写数据流程

直接发送给Leader节点

达到半数写入完成则可以返回给客户端,剩下的follower在继续写入

请添加图片描述

发送给follower节点

  • follower接收到请求先发给leader, leader先写入在发给folloer写入
  • 达到半数写入完成则可以返回给客户端,剩下的follower在继续写入

请添加图片描述

zookeeper分布式锁实现原理

Zookeeper 分布式锁实现原理

写在开头:

来源:Zookeeper实战——分布式锁实现以及原理_zookeeper分布式锁实现_Kim_smile的博客-CSDN博客

​ 先说结论:Zookeeper 是基于临时顺序节点以及 Watcher 监听器机制实现分布式锁的

(1)ZooKeeper 的每一个节点都是一个天然的顺序发号器

在每一个节点下面创建临时顺序节点(EPHEMERAL_SEQUENTIAL)类型,新的子节点后面会加上一个次序编号,而这个生成的次序编号是上一个生成的次序编号加一。

​ 例如,有一个用于发号的节点 “/test/lock” 为父节点,可以在这个父节点下面创建相同前缀的临时顺序子节点,假定相同的前缀为“/test/lock/seq-”。第一个创建的子节点基本上应该为 /test/lock/seq-0000000001,下一个节点则为 /test/lock/seq-0000000002,依次类推。

在这里插入图片描述

(2)ZooKeeper 节点的递增有序性可以确保锁的公平

​ 一个 ZooKeeper 分布式锁,首先需要创建一个父节点,尽量是持久节点(PERSISTENT 类型),然后每个要获得锁的线程都在这个节点下创建一个临时顺序节点,该节点是按照创建的次序依次递增的

​ 为了确保公平,可以简单的规定:编号最小的那个节点表示获得了锁。所以,每个线程在尝试占用锁之前,首先判断自己是序号是不是当前最小,如果是则获取锁。

(3)ZooKeeper 的节点监听机制,可以保障占有锁的传递有序而且高效

​ **每个线程抢占锁之前,先尝试创建自己的 ZNode。**同样,**释放锁的时候需要删除创建的 Znode。**创建成功后,如果不是序号最小的节点,就处于等待通知的状态。每一个等通知的 Znode 节点,**需要监视(watch)序号在自己前面的那个 Znode,以获取其删除事件。**只要上一个节点被删除了,就进行再一次判断,看看自己是不是序号最小的那个节点,如果是,自己就获得锁。就这样不断地通知后一个 ZNode 节点。

另外,ZooKeeper 的内部优越的机制,能保证由于网络异常或者其他原因,集群中占用锁的客户端失联时锁能够被有效释放。什么机制呢,就是临时顺序节点。一旦占用 Znode 锁的客户端与 ZooKeeper 集群服务器失去联系,这个临时 Znode 也将自动删除。排在它后面的那个节点,也能收到删除事件,从而获得锁。

也正是这个原因,zk 中不需要向 redis 那样考虑锁可能出现的无法释放的问题了,因为当客户端挂了,节点也挂了,锁也释放了。

(四)ZooKeeper 的节点监听机制,能避免羊群效应

​ **ZooKeeper 这种首尾相接、后面监听前面的方式,可以避免羊群效应。**所谓羊群效应就是一个节点挂掉,所有节点都去监听,然后做出反应,这样会给服务器带来巨大压力。有了临时顺序节点以及节点监听机制,当一个节点挂掉,只有它后面的那一个节点才做出反应。

具体流程

  1. 一把分布式锁通常使用一个 Znode 节点表示;如果锁对应的 Znode 节点不存在,首先创建 Znode 节点。这里假设为 /test/lock,代表了一把需要创建的分布式锁。
  2. 抢占锁的所有客户端,使用锁的 Znode 节点的子节点列表来表示;如果某个客户端需要占用锁,则在 /test/lock 下创建一个临时顺序的子节点。比如,如果子节点的前缀为 /test/lock/seq-,则第一次抢锁对应的子节点为 /test/lock/seq-000000001,第二次抢锁对应的子节点为 /test/lock/seq-000000002,以此类推。
  3. 当客户端创建子节点后,需要进行判断:自己创建的子节点,是否为当前子节点列表中序号最小的子节点。如果是,则加锁成功;如果不是,则监听前一个 Znode 子节点变更消息,等待前一个节点释放锁。
  4. 一旦队列中的后面的节点,获得前一个子节点变更通知,则开始进行判断,判断自己是否为当前子节点列表中序号最小的子节点,如果是,则认为加锁成功;如果不是,则持续监听,一直到获得锁。
  5. 获取锁后,开始处理业务流程。完成业务流程后,删除自己的对应的子节点,完成释放锁的工作,以方面后继节点能捕获到节点变更通知,获得分布式锁。

面试重点

操作看文档,这里就不写了

选举机制

SID:**服务器ID。**用来唯一标识一台ZooKeeper集群中的机器,每台机器不能重复,和myid一致。

ZXID:**事务ID。**ZXID是一个事务ID,**用来标识一次服务器状态的变更。**在某一时刻,集群中的每台机器的ZXID值不一定完全一致,这和ZooKeeper服务器对于客户端“更新请求”的处理逻辑有关。

Epoch:**每个Leader任期的代号。**没有Leader时同一轮投票过程中的逻辑时钟值是相同的。每投完一次票这个数据就会增加

第一次启动

请添加图片描述

(1)服务器1启动, 发起一次选举。服务器1投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成,服务器1状态保持LOOKING;

(2)服务器2启动,再发起一次选举。服务器1和2分别投自己一票并交换选票信息:此时服务器1发现服务器2的myid比自己目前投票推举的(服务器1)大,更改选票为推举服务器2。此时服务器1票数0票,服务器2票数2票,没有半数以上结果,选举无法完成,服务器1,2状态保持LOOKING

(3)服务器3启动,发起一次选举。此时服务器1和2都会更改选票为服务器3。此次投票结果:服务器1为0票,服务器2为0票,服务器3为3票。此时服

务器3的票数已经超过半数,服务器3当选Leader。服务器1,2更改状态为FOLLOWING,服务器3更改状态为LEADING;

(4)服务器4启动,发起一次选举。此时服务器1,2,3已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器3为3票,服务器4为

1票。此时服务器4服从多数,更改选票信息为服务器3,并更改状态为FOLLOWING;

(5)服务器5启动,同4一样当小弟。

非第一次启动

请添加图片描述

(1)当ZooKeeper集群中的一台服务器出现以下两种情况之一时,就会开始进入Leader选举:

服务器初始化启动。

• 服务器运行期间无法和Leader保持连接。

(2)而当一台机器进入Leader选举流程时,当前集群也可能会处于以下两种状态:

• 集群中本来就已经存在一个Leader。

​ 对于第一种已经存在Leader的情况,机器试图去选举Leader时会被告知当前服务器的Leader信息,对于该机器来说,仅仅需要和Leader机器建立连接,并进行状态同步即可

• 集群中确实不存在Leader

​ 假设ZooKeeper由5台服务器组成,SID分别为1、2、3、4、5,ZXID分别为8、8、8、7、7,并且此时SID为3的服务器是Leader。某一时刻,3和5服务器出现故障,因此开始进行Leader选举。

选举Leader规则:

​ ①EPOCH大的直接胜出

​ ②EPOCH相同,事务id大的胜出

​ ③事务id相同,服务器id大的胜出

生产集群安装多少zk合适

安装奇数台.

生产经验:

  • 10台服务器: 3台zk;
  • 20台服务器: 5台zk;
  • 100台服务器: 11台zk;
  • 200台服务器: 11台zk;

服务器台数多: 好处,可靠性高; 坏处: 提高通信延迟.(半数机制)

常用命令

ls, get, create, delete

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值