Zookeeper简介

Zookeeper简介

zookeeper能做什么

master节点选举:主节点挂了以后,从节点就会接手工作并且保证整个节点时唯一的,从而保证集群的高可用。

统一配置文件管理:即只需要部署一台node,则可以把相同的配置文件同步更新到其他所有服务器。(配置中心)

发布与订阅:类似消息队列MQ,服务提供者把数据注册在zookeeper server上,服务消费者订阅这个服务,从zookeeper server上获取该服务数据。

分布式锁:解决分布式环境中不同进程之间抢占资源的问题,类似多线程中的锁。一个进程占用,其他进程服务使用该资源。

集群管理:分布式环境中,实时掌握每个节点的状态是必须的。可根据节点实时状态做出一些调整。

zookeeper可以实现实时监控节点状态变化。可将节点信息写入zookeeper的一个node,监控这个节点的变化。

统一命名服务:在分布式环境下,经常需要对应用/服务进行统一命名,便于识别。

服务器动态上下线

客户端能够实施监听服务的所在服务的上下线的变化。

软负载均衡:

在zookeeper中记录每个服务器的访问次数,让访问数量少的服务器去处理最新的客户端请求。

zookeeper中的数据是存储在内存中的,因此它的效率十分

zookeeper的数据模型

zookeeper本质上是一个分布式的小文件存储系统;

zookeeper表现为一个分层的文件系统目录树结构(不同于文件系统的是,节点可以有自己的数据,而文件系统中的目录节点只有子节点),每个节点可以存少量的数据(1M左右)。

每个节点称做一个ZNode。每个ZNode都可以通过其路径唯一标识。

img

zookeeper中的每个节点存储的数据要被原子性的操作。也就是读操作将获取与节点相关的所有数据,写操作也将替换掉节点的所有数据。

在zookeeper创建顺序节点,节点路径后加编号,这个计数对于此节点的父节点来说是唯一的。

zookeeper中的节点有两种,分别为临时节点和永久节点,节点的类型在创建时即被确定,并且不能改变。

​ 临时节点:在客户端用create -e创建,该节点的生命周期依赖于创建它们的会话。一旦会话(Session)结束,临时节点将被自动删除,当然可以也可以手动删除。虽然每个临时的Znode都会绑定到一个客户端会话,但他们对所有的客户端还是可见的。另外,ZooKeeper的临时节点不允许拥有子节点。

​ 永久节点:在客户端用create 创建,该节点的生命周期不依赖于会话,并且只有在客户端显示执行删除操作的时候,他们才能被删除。

结合分布式锁浅聊数据结构:

image-20220831190221099

假设有三个服务s1、s2、s3,都要使用/java这个节点,就要利用分布式锁,三个服务进行抢占,谁先在/java下创建子节点,就代表谁抢到了,也就锁住了资源,那么其他就需要等待s2结束,在此期间,s1和s3会一直监听/java,当s2这个服务挂掉或关闭,会把/java下的子节点删除,代表锁被释放,就会触发监听,通知其他服务可以进行抢占。

也有一种情况就是,三个服务都要创建/java这个节点,谁先创建了,谁就是抢占了,结束时,会把/java这个节点删除,表示锁被释放。

zookeeper工作机制

Zookeeper从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper就将负责通知已经在Zookeeper上注册的那些观察者做出相应的反应。也就是说 Zookeeper =文件系统+通知机制。

zookeeper集群的选举机制

1、第一次启动选举机制
image-20220831194501902

(1)服务器1启动,发起一次选举。服务器1投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成,服务器1状态保持为LOOKING。

(2)服务器2启动,再发起一次选举。服务器1和2分别投自己一票并交换选票信息;此时服务器1发现服务器2的myid比自己目前投票选举的(服务器1)大,更改选票为推举服务器2。此时服务器1票数0票,服务器2票数2票,没有半数以上结果,选举无法完成,服务器1、2状态保持LOOKING。

(3)服务器3启动,发起一次选举。此时服务器1和2都会更改选票为服务器3。此次投票结果:服务器1为0票,服务器2为0票,服务器3为3票。此时服务器3的票数已经超过半数,服务器3当选Leader。服务器1、2更改状态为FOLLOWING,服务器3更改状态为LEADING。

(4)服务器4启动,发起一次选举。此时服务器1、2、3已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器3为3票,服务器4为1票。此时服务器4服从多数,更改选票信息为服务器3,并更改状态为FOLLOWING。

(5)服务器5启动与服务器4一样。

2、非第一次启动选举机制

img

当ZooKeeper集群中的一台服务器出现以下两种情况之一时,就会开始进入Leader选举:

服务器初始化启动。

服务器运行期间无法和Leader保持连接。

而当一台机器进入Leader选举流程时,当前集群也可能会处于以下两种状态:

集群中本来就己经存在一个Leader。对于已经存在Leader的情况,机器试图去选举Leader时,会被告知当前服务器的Leader信息,对于该机器来说,仅仅需要和Leader机器建立连接,并进行状态同步即可。

集群中确实不存在Leader。假设ZooKeeper由5台服务器组成,SID分别为1、2、3、4、5,ZXID分别为8、8、8、7、,并且此时sID为3的服务器是。一时刻,3和5服务器出现故障,因此开始进行Leader选举。

选举Leader规则:

事务id大的胜出
事务id相同,服务器id大的胜出

搭建zookeeper的集群

1、解压安装包

tar zxvf apache-zookeeper-3.5.7-bin.tar.gz
mv apache-zookeeper-3.5.7-bin /usr/local/zookeeper

2、配置配置文件

cp zoo_sample.cfg zoo.cfg
vim zoo.cfg
tickTime=2000#通信心跳时间,Zookeeper服务器与客户端心跳时间,单位毫秒initLimit=10
#Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量),这里表示为10*2s
syncLimit=5
#Leader和Follower之间同步通信的超时时间,这里表示如果超过5*2s,Leader认为Follwer死掉,并从服务器列表中删除Follwer
dataDir=/usr / local/ zookeeper-3.5.7/data
#修改,指定保存Zookeeper中的数据的目录,目录需要单独创建
dataLogDir=/usr/local/zookeeper-3.5.7/logs
#添加,指定存放日志的目录,目录需要单独创建clientPort=2181#客户端连接端口
#添加集群信息.
server.1=192.168.10.11:3188:3288
server.2-192.168.10.12:3188:3288
server.3=192.168.10.13:3188:3288

image-20220831201825587

mkdir /usr/local/zookeeper/data
mkdir /usr/local/zookeeper/logs

echo 1 > /usr/local/zookeeper/data/myid

/usr/local/zookeeper/bin/zkServer.sh start

image-20220901005624286

image-20220901005656806

image-20220901005710073

/usr/local/zookeeper/bin/zkServer.sh status

image-20220901005733052

image-20220901005748551

-1663501388800)]

/usr/local/zookeeper/bin/zkServer.sh status

[外链图片转存中…(img-QKhA2N00-1663501388800)]

[外链图片转存中…(img-bJ3u4OsT-1663501388800)]

image-20220901005805747

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值