Zookeeper

分布式

分布式技术-Zookeeper

1.Zookeeper概述

1.1概述

​ Zookeeper是一个开源的分布式的,为分布式应用提供协调服务的Apache项目

1.2 工作机制

  • Zookeeper从设计模式角度来理解,是一个基于观察者模式设计的分布式服务管理框架
  • 它负责 存储 和 管理 大家都关心的数据
    • 然后接受观察者的注册,一旦这些数据发生变化
    • Zookeeper就将负责通知已经注册的那些观察者做出相应的反应
    • 从而实现集群中类似Master/Slave管理模式
  • Zookeeper = 文件系统 + 通知机制

1.3 Zookeeper特点

  1. 是一个leader和多个follower来组成的集群
  2. 集群中只要有半数以上的节点存活,Zookeeper就能正常工作
  3. 全局一致性,每台服务器都保存一份相同的数据副本,无论client连接到哪台server,数据都是一致的
  4. 数据更新原子性,一次数据要么成功,要么失败
  5. 实时性,在一定时间范围内,client能读取到最新数据
  6. 更新的请求按照顺序执行,会按照发过来的顺序逐一执行

1.4 Zookeeper数据结构

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gw89p8ne-1642257553426)(../../AppData/Roaming/Typora/typora-user-images/image-20220105142011273.png)]

  • Zookeeper数据模型的结构与linux文件系统很类似,整体上可以看作是一棵树,每个节点称做一个ZNode(ZookeeperNode)。
  • 每一个ZNode默认能够存储1MB的数据(元数据),每个ZNode的路径都是唯一的
    • 元数据(Metadata),又称中介数据,中继数据,为描述数据的数据,主要是描述数据属性的信息,用来支持如只是存储位置,历史数据,资源查找,文件记录等功能

1.5 应用场景

  • 提供的服务包括:统一命名服务,统一配置管理,统一集群管理,服务器节点动态上下线,软负载均衡等
1.5.1 统一命名服务
  • 在分布式环境下,通常需要对应用或服务进行统一的命名,便于识别
  • 例如:服务器的IP地址不容易记,但域名相比之下却是很容易记住
    在这里插入图片描述
1.5.2 统一配置管理
  • 分布式环境下,配置文件做同步是必经之路
  • 1000台服务器,如果配置文件作出修改,那一台一台的修改,运维人员肯定会疯,Zookeeper可以做到修改一处就快速同步到每台服务器上
  • 将配置管理交给Zookeeper
    1. 将配置信息写入到Zookeeper的某个节点上
    2. 每个客户端都监听这个节点
    3. 一旦节点中的数据文件被修改,Zookeeper就会通知每台客户端服务器

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2VfrH7tx-1642257553429)(../../AppData/Roaming/Typora/typora-user-images/image-20220105160507328.png)]

1.5.3 服务器节点动态上下线
  • 客户端能实时获取服务器上下线的变化
  • 例如:美团上可以看到商家营业或者打烊的状态
1.5.4 软负载均衡
  • Zookeeper会记录每台服务器的访问次数,让访问数最少的服务器去处理最新的客户请求
  • 如果每台服务器的访问次数都达到一样,则采取轮循

在这里插入图片描述

1.6下载地址

  • 镜像库地址:http://archive.apache.org/dist/zookeeper/

  • apache-zookeeper-3.6.0.tar.gz需要安装maven,然后再运行mvn clean install 和mvn

    javadoc:aggregate,前一个命令会下载安装好多jar包,不知道要花多长时间

  • apache-zookeeper-3.6.0-bin.tar.gz已经自带所需要的各种jar包

2.Zookeeper本地模式安装

2.1本地模式安装

2.1.1 安装前准备
  1. 安装好JDK

  2. 拷贝apache-zookeeper-3.6.0-bin.tar.gz到usr目录

  3. 解压安装包

    [root@localhost usr]# tar -zxvf apache-zookeeper-3.6.0-bin.tar.gz 
    
  4. 重命名

    [root@localhost usr]# mv apache-zookeeper-3.6.0-bin zookeeper 
    
2.1.2 配置修改
  1. 在/usr/zookeeper/这个目录上创建zkData和zkLog目录

    [root@localhost zookeeper]# mkdir zkData 
    [root@localhost zookeeper]# mkdir zkLog 
    
  2. 进入/usr/zookeeper/conf这个路径,复制一份 zoo_sample.cfg 文件并命名为 zoo.cfg

    [root@localhost conf]# cp zoo_sample.cfg zoo.cfg 
    
  3. 编辑zoo.cfg文件

    • 修改dataDir路径:

      dataDir=/usr/zookeeper/zkData 
      
    • 添加dataLogDir路径:

      dataLogDir=/usr/zookeeper/zkLog
      
2.1.3 操作Zookeeper

注:启动Zookeeper前需要先关闭防火墙

[root@localhost bin]# systemctl stop firewalld.service
  1. 启动Zookeeper

    [root@localhost bin]# ./zkServer.sh start 
    
  2. 查看进程是否启动

    [root@localhost bin]# jps 
    注意:若此处显示数据为两条,则启动正常
    QuorumPeerMain:是zookeeper集群的启动入口类,是用来加载配置启动QuorumPeer线程的
    
  3. 查看状态

    [root@localhost bin]# ./zkServer.sh status 
    
  4. 启动客户端

    [root@localhost bin]# ./zkCli.sh 
    
  5. 退出客户端

    [zk: localhost:2181(CONNECTED) 0] quit
    

2.2 配置参数解读

  • tickTime=2000:通信心跳数,Zookeeper服务器与客户端心跳时间,单位/毫秒

    • Zookeeper使用的基本时间,服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是米格tickTime时间会发送一个心跳,时间单位/毫秒
  • initLimit=10:LF初始通信时限

    • 集群中的Follower跟随者服务器与Leader领导者服务器之间,启动时能容忍的最多心跳数

    • 10*2000(10个心跳时间)如果领导和跟随者没有发出心跳通信,就视为失效的连接,领导

      和跟随者彻底断开

  • syncLimit =5:LF同步通信时限

    • 集群启动后,Leader与Follower之间的最大响应时间单位,假如响应超过syncLimit *

      tickTime->10秒,Leader就认为Follwer已经死掉,会将Follwer从服务器列表中删除

  • dataDir:数据文件目录+数据持久化路径

    • 主要用于保存Zookeeper中的数据
  • dataLogDir:日志文件目录

  • clientPort =2181:客户端连接端口

    • 监听客户端连接的端口

3. Zookeeper内部原理

3.1 选举机制

  • 半数机制:集群中半数以上机器存活,集群可用。所以Zookeeper适合安装奇数台服务器

  • 虽然在配置文件中并没有指定Master和Slave。但是,Zookeeper工作时,是有一个节点为

    Leader,其他则为Follower,Leader是通过内部的选举机制临时产生的

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-p9oIOlQK-1642257553430)(../../AppData/Roaming/Typora/typora-user-images/image-20220112115817334.png)]

    1. Server1先投票,投给自己,自己为1票,没有超过半数,根本无法成为leader,顺水推舟将票数投给了id比自己大的Server2
    2. Server2也把自己的票数投给了自己,再加上Server1给的票数,总票数为2票,没有超过半数,也无法成为leader,也学习Server1,顺水推舟,将自己所有的票数给了id比自己大的Server3
    3. Server3得到了Server1和Server2的两票,再加上自己投给自己的一票。3票超过半数,顺利成为leader
    4. Server4和Server5都投给自己,但是无法改变Server3的票数,只好听天由命,承认Server3是leader

3.2 节点类型

  • 持久型(persistent)
    • 持久化目录节点:客户端与Zookeeper断开连接后,该节点依旧存在
    • 持久化顺序编号目录节点:客户端与Zookeeper断开连接后,该节点依旧存在,创建ZNode时设置顺序标识,ZNode名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护,如:ZNode0001,ZNode0002…
  • 短暂型(ephemeral)
    • 临时目录节点:客户端和服务器断开连接后,创建的节点自动删除
    • 临时顺序编号目录节点:客户端与Zookeeper断开连接后,该节点被删除,创建ZNode时设置顺序标识,ZNode名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护,如:ZNode0001,ZNode0002…

注意:注意:序号是相当于i++,和数据库中的自增长类似

3.3 监听器原理

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cYbpIIlv-1642257553431)(../../AppData/Roaming/Typora/typora-user-images/image-20220112120720659.png)]

  1. 在main方法中创建Zookeeper客户端的同时就会创建两个线程,一个负责网络连接通信,一个负责监听
  2. 监听事件就会通过网络通信发送给Zookeeper
  3. Zookeeper获得注册的监听事件后,立即将监听事件添加到监听列表里
  4. Zookeeper监听到数据变化或路径变化,就会将这个消息发送给监听线程
    • 常见的监听:
      • 监听节点数据的变化:get path
      • 监听子节点增减的变化:Is path
  5. 监听线程就会在内部调用process方法(process内容由我们实现)

3.4 写数据流程

在这里插入图片描述

  1. Client 想向 ZooKeeper 的 Server1 上写数据,必须的先发送一个写的请求
  2. 如果Server1不是Leader,那么Server1 会把接收到的请求进一步转发给Leader。
  3. 这个Leader 会将写请求广播给各个Server,各个Server写成功后就会通知Leader。
  4. 当Leader收到半数以上的 Server 数据写成功了,那么就说明数据写成功了。
  5. 随后,Leader会告诉Server1数据写成功了。
  6. Server1会反馈通知 Client 数据写成功了,整个流程结束

Zookeeper实战知识点

4.1 分布式安装部署

集群思路:先搞定一台服务器,然后再克隆出需要的服务器数量,形成集群(注意:通常Zookeeper中服务器的数量正常为奇数台)

4.1.1 安装Zookeeper
4.1.2 配置服务器编号
  • 再/usr/zookeeper/zkData中创建myid文件

    [root@localhost zkData]# vi myid
    
  • 在文件中添加与server对应的编号:1

  • 为其他服务其配置编号:依次递增,不能重复

4.1.3 配置zoo.cfg文件
  • 打开zoo.cfg文件,添加配置

    #######################cluster########################## 
    server.1=192.168.204.141:2888:3888 
    server.2=192.168.204.142:2888:3888 
    server.3=192.168.204.143:2888:3888 
    
  • 配置参数解读 server.A=B:C:D

    • A:一个数字,表示第几号服务器

      集群模式下配置的/usr/zookeeper/zkData/myid文件里面的数据就是A的值

    • B:服务器的ip地址

    • C:与集群中Leader服务器交换信息的端口

    • D:选举时专用端口,万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选

      出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。

4.1.4 配置其他服务器
  1. 在虚拟机数据目录下创建zk02

  2. 将本台服务器数据目录下的**.vmx文件和所有的.vmdk**文件拷贝到zk02下

  3. 虚拟机->文件->打开(选择zk02下的**.vmx**文件)

    注意:如果.vmx文件打不开,可以先扫描虚拟机,扫描到以后就可以直接开启

  4. 开启复制好的虚拟机,弹出对话框,选择“我已复制该虚拟机”

  5. 进入系统后,修改linux中的ip(打开**/etc/sysconfig/network-scripts/ifcfg-eno16777736后修改IPADDR**),然后修改/usr/zookeeper/zkData/myid的数值

4.1.5 集群操作
  1. 每台服务器防火墙必须关闭

    [root@localhost bin]# systemctl stop firewalld.service 
    
  2. 启动第1台

    [root@localhost bin]# ./zkServer.sh start 
    
  3. 查看状态

    [root@localhost bin]# ./zkServer.sh status
    
    ZooKeeper JMX enabled by default 
    Using config: /opt/zookeeper/bin/../conf/zoo.cfg 
    Client port found: 2181. Client address: localhost.
    注:此处显示失败的原因是因为没有超过半数以上的服务器,所以集群失败 (防火墙没有关闭也会导致失败)
    Error contacting service. It is probably not running.
    
  4. 若有三台服务器时显示如下(Zookeeper的选举机制)

    • 查看第一台的状态:Mode: follower
    • 查看第2台的状态:Mode: leader

4.2 客户端命令行操作

  • 启动客户端

    [root@localhost bin]# ./zkCli.sh
    

    注意:都是在/usr/zookeeper/bin/目录下

  • 显示所有操作命令

    help
    
  • 查看当前ZNode中所包含的内容

    ls /
    
  • 查看当前节点详细数据

    ls -s /
    
    • cZxid:创建节点的事务

      • 每次修改ZooKeeper状态都会收到一个zxid形式的时间戳,也就是ZooKeeper事务ID。

      • 事务ID是ZooKeeper中所有修改总的次序。

      • 每个修改都有唯一的zxid,如果zxid1小于zxid2,那么zxid1在zxid2之前发生。

    • ctime:被创建的毫秒数(从1970年开始)

    • mZxid:最后更新的事务zxid

    • mtime:最后修改的毫秒数(从1970年开始)

    • pZxid:最后更新的子节点zxid

    • cversion:创建版本号,子节点修改次数

    • dataVersion:数据变化版本号

    • aclVersion:权限版本号

    • ephemeralOwner:如果是临时节点,这个是znode拥有者的session id。如果不是临时节点

      则是0。

    • dataLength:数据长度

    • numChildren:子节点数

  • 创建节点

    • 在根目录下,创建中国和美国两个节点

      create /china
      create /usa
      
    • 在根目录下,创建俄罗斯节点,并保存“fighting”数据到节点上

      create /russia "fighting"
      
    • 多级创建节点

      • 在china节点下,创建shanxi“beautiful”
      • china节点必须提前创建好,否则将报错节点不存在
      create /china/shanxi "beautiful"
      
  • 获得节点的值

    get /china/shanxi
    
  • 修改节点的值

    set /china/shanxi "cool"
    
  • 创建短暂节点:创建成功之后,quit退出客户端,重新连接,短暂的节点消失

    create -e /usa 
    ls / 
    quit 
    ls /
    
  • 创建带序号的节点

    • 在俄罗斯russia下,创建3个city

      create -s /russia/city # 执行三次 
      ls /russia
      [city0000000000, city0000000001, city0000000002]
      
      • 如果原来没有序号节点,序号从0开始递增。

      • 如果原节点下已有2个节点,则再排序时从2开始,以此类推

  • 监听节点的值变化或子节点变化(路径变化)

    1. 在server3主机上注册监听/usa节点的数据变化

      addWatch /usa
      
    2. 在Server1主机上修改/usa的数据

      set /usa "telangpu"
      
    3. Server3会立刻响应

      WatchedEvent state:SyncConnected type:NodeDataChanged path:/usa

    4. 如果在Server1的/usa下面创建子节点NewYork

      create /usa/NewYork 
      
    5. Server3会立刻响应
      WatchedEventstate:SyncConnectedtype:NodeCreatedpath:/usa/NewYork

    6. 删除节点

      delete /usa/NewYork 
      
    7. 递归删除节点(非空节点,不仅删除/ru,而且/ru下的所有子节点也随之删除)

      deleteall /ru 
      

4.3 分布式锁

  • 锁:我们在多线程中接触过,作用就是让当前的资源不会被其他线程访问!

    • 我的日记本,不可以被别人看到。所以要锁在保险柜中

    • 当我打开锁,将日记本拿走了,别人才能使用这个保险柜

  • 在zookeeper中使用传统的锁引发的 “羊群效应” :1000个人创建节点,只有一个人能成功,999

    人需要等待!

  • 羊群是一种很散乱的组织,平时在一起也是盲目地左冲右撞,但一旦有一只头羊动起来,其他的羊

    也会不假思索地一哄而上,全然不顾旁边可能有的狼和不远处更好的草。羊群效应就是比喻人都有

    一种从众心理,从众心理很容易导致盲从,而盲从往往会陷入骗局或遭到失败。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-i6LuG4pu-1642257553433)(../../AppData/Roaming/Typora/typora-user-images/image-20220115222148743.png)]

  • 避免“羊群效应”,zookeeper采用分布式锁

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-r8M6Ha51-1642257553434)(../../AppData/Roaming/Typora/typora-user-images/image-20220115222212436.png)]

  1. 所有请求进来,在/lock下创建 临时顺序节点 ,放心,zookeeper会帮 你编号排序
  2. 判断自己是不是/lock下最小的节点
    1. 是,获得锁(创建节点)
    2. 否,对前面小我一级的节点进行监听
  3. 获得锁请求,处理完业务逻辑,释放锁(删除节点),后一个节点得到通 知(比你年轻的死了,你成为最嫩的了)
  4. 重复步骤2
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

技术很low的瓜贼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值