一、ZooKeeper简介
ZooKeeper 是一个开源的分布式协调框架,它的定位是为分布式应用提供一致性服务,是整个大数据体系的管理员。ZooKeeper 会封装好复杂易出错的关键服务,将高效、稳定、易用的服务提供给用户使用。ZooKeeper = 文件系统 + 监听通知机制。
1.1文件系统
Zookeeper维护一个类似文件系统的树状数据结构,这种特性使得 Zookeeper 不能用于存放大量的数据,每个节点的存放数据上限为1M。每个子目录项如 NameService 都被称作为 znode(目录节点)。和文件系统一样,我们能够自由的增加、删除znode,在一个znode下增加、删除子znode,唯一的不同在于znode是可以存储数据的。默认有四种类型的znode:
1. 持久化目录节点 PERSISTENT:客户端与zookeeper断开连接后,该节点依旧存在。
2.持久化顺序编号目录节点 PERSISTENT_SEQUENTIAL:客户端与zookeeper断开连接后,
该节点依旧存在,只是Zookeeper给该节点名称进行顺序编号。
3. 临时目录节点 EPHEMERAL:客户端与zookeeper断开连接后,该节点被删除。
4.临时顺序编号目录节点 EPHEMERAL_SEQUENTIAL:客户端与zookeeper断开连接后,
该节点被删除,只是Zookeeper给该节点名称进行顺序编号。
1.2 监听通知机制
Watcher 监听机制是 Zookeeper 中非常重要的特性,我们基于 Zookeeper 上创建的节点,可以对这些节点绑定监听事件,比如可以监听节点数据变更、节点删除、子节点状态变更等事件,通过这个事件机制,可以基于 Zookeeper 实现分布式锁、集群管理等功能。
Watcher特性:
当数据发生变化的时候, Zookeeper 会产生一个 Watcher 事件,并且会发送到客户端。但是客户端只会收到一次通知。如果后续这个节点再次发生变化,那么之前设置 Watcher 的客户端不会再次收到消息。(Watcher 是一次性的操作)。可以通过循环监听去达到永久监听效果。
ZooKeeper 的 Watcher 机制,总的来说可以分为三个过程:
1.客户端注册 Watcher,注册 watcher 有 3 种方式,getData、exists、getChildren。
2.服务器处理 Watcher 。
3..服务器回调 Watcher 客户端。
监听流程:
- 首先要有一个main()线程
- 在main线程中创建Zookeeper客户端,这时就会创建两个线程,一个负责网络连接通信(connet),一个负责监听(listener)。
- 通过connect线程将注册的监听事件发送给Zookeeper。
- 在Zookeeper的注册监听器列表中将注册的监听事件添加到列表中。
- Zookeeper监听到有数据或路径变化,就会将这个消息发送给listener线程。
- listener线程内部调用了process()方法。
1.3 Zookeeper 特点
-
集群:Zookeeper是一个领导者(Leader),多个跟随者(Follower)组成的集群。
2. 高可用性:集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。
3. 全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
4. 更新请求顺序进行:来自同一个Client的更新请求按其发送顺序依次执行。
5. 数据更新原子性:一次数据更新要么成功,要么失败。
6. 实时性:在一定时间范围内,Client能读到最新数据。
7. 从设计模式角度来看,zk是一个基于观察者设计模式的框架,它负责管理跟存储大家都关心的数据,然后接受观察者的注册,数据反生变化zk会通知在zk上注册的观察者做出反应。
8. Zookeeper是一个分布式协调系统,满足CP性,跟SpringCloud中的Eureka满足AP不一样。1.分布式协调系统:Leader会同步数据到follower,用户请求可通过follower得到数据,这样不会出现单点故障, 并且只要同步时间无限短,那这就是个好的 分布式协调系统。 2.CAP原则又称CAP定理,指的是在一个分布式系统中,一致性(Consistency)、可用性(Availability)、 分区容错性(Partition tolerance)。CAP 原则指的是,这三个要素最多只能同时实现两点,不可能三者兼顾。
1.4 znode节点存储
Znode数据节点的代码如下
public class DataNode implements Record {
byte data[];
Long acl;
public StatPersisted stat;
private Set<String> children = null;
}
哈哈,Znode包含了「存储数据、访问权限、子节点引用、节点状态信息」,如图:
「data:」 znode存储的业务数据信息
「ACL:」 记录客户端对znode节点的访问权限,如IP等。
「child:」 当前节点的子节点引用
「stat:」 包含Znode节点的状态信息,比如「事务id、版本号、时间戳」等等。
每个节点的数据最大不能超过多少呢?
为了保证高吞吐和低延迟,以及数据的一致性,znode只适合存储非常小的数据,不能超过1M,最好都小于1K。
1.5 Zookeeper的ACL权限控制
1.5.1权限permission类型
1.5.2权限permission认证方案1.5.3权限permission认证命令
1.5.3权限认证实战
1.World方案:
//命令
setAcl <path> world:anyone:<acl>
//客户端使用
setAcl /node1 world:anyone:cdrwa
2.IP方案:
//命令
setAcl <path> ip:<ip>:<acl>
//客户端使用:设置IP:192.168.100.1 拥有所有权限
setAcl /node2 ip:192.168.100.1:cdrwa
3.Auth方案
//添加认证用户命令
addauth digest <user>:<password> #添加认证用户
//设置Auth命令
setAcl <path> auth:<user>:<acl>
//使用--添加认证用户
addauth digest yoonper:123456
setAcl /node3 auth:yoonper:cdrwa
4.Digest方案
//命令
setAcl <path> digest:<user>:<password>:<acl>
//BASE64进行密码加密
echo -n <user>:<password> | openssl dgst -binary -sha1 | openssl base64
//使用--密码加密
echo -n yoonper:123456 | openssl dgst -binary -sha1 | openssl base64
UvJWhBril5yzpEiA2eV7bwwhfLs=
//使用--设置Digest
setAcl /node4 digest:yoonper:UvJWhBril5yzpEiA2eV7bwwhfLs=:cdrwa
注意事项:
要修改某个节点的ACL属性,必须具有read、admin二种权限。
要删除某个节点下的子节点,必须具有对父节点的read权限,以及父节点的delete权限。
二、Zookeeper 提供的功能
通过对 Zookeeper 中丰富的数据节点进行交叉使用,配合 Watcher 事件通知机制,可以非常方便的构建一系列分布式应用中涉及的核心功能,比如 数据发布/订阅、负载均衡、命名服务、分布式协调/通知、集群管理、Master 选举、分布式锁和分布式队列 等功能。
1. 数据发布/订阅
当某些数据由几个机器共享,且这些信息经常变化数据量还小的时候,这些数据就适合存储到ZK中。
数据存储:将数据存储到 Zookeeper 上的一个数据节点。
数据获取:应用在启动初始化节点从 Zookeeper 数据节点读取数据,
并在该节点上注册一个数据变更 Watcher
数据变更:当变更数据时会更新 Zookeeper 对应节点数据,Zookeeper
会将数据变更通知发到各客户端 ,客户端接到通知后重新读取变更后的数据即可。
2.分布式协调/通知
- 对于系统调度来说,用户更改zk某个节点的value, ZooKeeper会将这些变化发送给注册了这个节点的 watcher 的所有客户端,进行通知。
2. 对于执行情况汇报来说,每个工作进程都在目录下创建一个携带工作进度的临时节点,那么汇总的进程可以监控目录子节点的变化获得工作进度的实时的全局情况。
3.命名服务
命名服务是指通过指定的名字来获取资源或者服务的地址,利用 zk 创建一个全局唯一的路径,这个路径就可以作为一个名字,指向集群中的集群,提供的服务的地址,或者一个远程的对象等等。
4.分布式锁
4.1 分布式锁的实现有多重途径,最常见的是基于redis或者Zookeeper,Redis提供的分布式锁是比ZK性能强的,简单说一下优缺点对比:
4.2 这里只介绍基于ZooKeeper实现分布式锁,一般有如下两种:
保持独占
核心思想:在zk中有一个唯一的临时节点,只有拿到节点的才可以操作数据,没拿到的线程就需要等待。
缺点:可能引发羊群效应,第一个用完后瞬间有999个同时并发的线程向zk请求获得锁。
控制时序
主要是避免了羊群效应,临时节点已经预先存在,所有想要获得锁的线程在它下面创建临时顺序编号目录节点,
编号最小的获得锁,用完删除,后面的依次排队获取。
4.3 获取锁的过程:
- 当第一个客户端请求过来时,Zookeeper客户端会创建一个持久节点/locks。如果它(Client1)想获得锁,需要在locks节点下创建一个顺序节点lock1.如图:
2. 接着,客户端Client1会查找locks下面的所有临时顺序子节点,判断自己的节点lock1是不是排序最小的那一个,如果是,则成功获得锁。
- 这时候如果又来一个客户端client2前来尝试获得锁,它会在locks下再创建一个临时节点lock2。
- 客户端client2一样也会查找locks下面的所有临时顺序子节点,判断自己的节点lock2是不是最小的,此时,发现lock1才是最小的,于是获取锁失败。获取锁失败,它是不会甘心的,client2向它排序靠前的节点lock1注册Watcher事件,用来监听lock1是否存在,也就是说client2抢锁失败进入等待状态。
- 此时,如果再来一个客户端Client3来尝试获取锁,它会在locks下再创建一个临时节点lock3。
- 同样的,client3一样也会查找locks下面的所有临时顺序子节点,判断自己的节点lock3是不是最小的,发现自己不是最小的,就获取锁失败。它也是不会甘心的,它会向在它前面的节点lock2注册Watcher事件,以监听lock2节点是否存在。
4.4 释放锁的过程
- 我们再来看看释放锁的流程,zookeeper的「客户端业务完成或者故障」,都会删除临时节点,释放锁。如果是客户端故障,临时节点会自动删除,如果是任务完成,Client1会显式调用删除lock1的指令。
- lock1节点被删除后,Client2可开心了,因为它一直监听着lock1。lock1节点删除,Client2立刻收到通知,也会查找locks下面的所有临时顺序子节点,发下lock2是最小,就获得锁。
- 同理,Client2获得锁之后,Client3也对它虎视眈眈。
5.负载均衡
多个相同的jar包在不同的服务器上开启相同的服务,可以通过nginx在服务端进行负载均衡的配置。也可以通过ZooKeeper在客户端进行负载均衡配置。
1.多个服务注册到zookeeper,
2.客户端获取中间件地址集合,
3.从集合中随机选一个服务执行任务,获取集合的随机下标,
随机获取集合中的某个服务。
ZooKeeper负载均衡和Nginx负载均衡区别:
ZooKeeper不存在单点问题,zab机制保证单点故障可重新选举一个leader只负责服务的注册与发现,不负责转发,减少一次数据交换(消费方与服务方直接通信),需要自己实现相应的负载均衡算法。
Nginx存在单点问题,单点负载高数据量大,需要通过 KeepAlived + LVS 备机实现高可用。每次负载,都充当一次中间人转发角色,增加网络负载量(消费方与服务方间接通信),自带负载均衡算法。
6.集群管理
6.1 集群管理:
大数据体系下的大部分集群服务好像都通过ZooKeeper管理的,其实管理的时候主要关注的就是机器的动态上下线跟Leader选举。
动态上下线:
比如在zookeeper服务器端有一个znode叫 /Configuration,那么集群中每一个机器启动的时候都去这个节点下创建一个EPHEMERAL类型的节点,比如server1 创建 /Configuration/Server1,server2创建**/Configuration /Server1**,然后Server1和Server2都watch /Configuration 这个父节点,那么也就是这个父节点下数据或者子节点变化都会通知到该节点进行watch的客户端。
Leader选举:
利用ZooKeeper的强一致性,能够保证在分布式高并发情况下节点创建的全局唯一性,即:同时有多个客户端请求创建 /Master 节点,最终一定只有一个客户端请求能够创建成功。利用这个特性,就能很轻易的在分布式环境中进行集群选举了。
就是动态Master选举。这就要用到 EPHEMERAL_SEQUENTIAL类型节点的特性了,这样每个节点会自动被编号。允许所有请求都能够创建成功,但是得有个创建顺序,每次选取序列号最小的那个机器作为Master 。
6.2 详解Leader选举:
ZooKeeper集群节点个数一定是奇数个,一般3个或者5个就OK。为避免集群群龙无首,一定要选个大哥出来当Leader。这是个高频考点。
6.2.1 预备知识
6.2.1.1 节点四种状态
1.LOOKING:寻 找 Leader 状态。当服务器处于该状态时会认为当前集群中没有 Leader,
因此需要进入 Leader 选举状态。
2.FOLLOWING:跟随者状态。处理客户端的非事务请求,转发事务请求给 Leader 服务器,
参与事务请求 Proposal(提议) 的投票,参与 Leader 选举投票。
3.LEADING:领导者状态。事务请求的唯一调度和处理者,保证集群事务处理的顺序性,
集群内部个服务器的调度者(管理follower,数据同步)。
4.OBSERVING:观察者状态。3.0 版本以后引入的一个服务器角色,在不影
响集群事务处理能力的基础上提升集群的非事务处理能力,处理客户端的非事
务请求,转发事务请求给 Leader 服务器,不参与任何形式的投票。
6.2.1.2 服务器ID
Server id,一般在搭建ZK集群时会在myid文件中给每个节点搞个唯一编号,编号越大在Leader选择算法中的权重越大,比如初始化启动时就是根据服务器ID进行比较。
6.2.1.3 ZXID
ZooKeeper 采用全局递增的事务 Id 来标识,所有 proposal(提议)在被提出的时候加上了ZooKeeper Transaction Id ,zxid是64位的Long类型,这是保证事务的顺序一致性的关键。zxid中高32位表示纪元epoch,低32位表示事务标识xid。你可以认为zxid越大说明存储数据越新。
1.每个leader都会具有不同的epoch值,表示一个纪元/朝代,用来标识 leader 周期。每个新
的选举开启时都会生成一个新的epoch,新的leader产生的话epoch会自增,会将该值更新到
所有的zkServer的zxid和epoch,
2.xid是一个依次递增的事务编号。数值越大说明数据越新,所有 proposal(提议)在被提出
的时候加上了zxid,然后会依据数据库的两阶段过程,首先会向其他的 server 发出事务执行
请求,如果超过半数的机器都能执行并且能够成功,那么就会开始执行。
6.2.2选举过程:
6.2.2.1 启动时Leader选举
我们以上面的5台机器为例,只有超过半数以上,即最少启动3台服务器,集群才能正常工作。
- 服务器1启动,发起一次选举。服务器1投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成,服务器1状态保持为LOOKING。
- 服务器2启动,再发起一次选举。服务器1和2分别投自己一票,此时服务器1发现服务器2的id比自己大,更改选票投给服务器2。此时服务器1票数0票,服务器2票数2票,不够半数以上(3票),选举无法完成。服务器1,2状态保持LOOKING。
- 服务器3启动,发起一次选举。与上面过程一样,服务器1和2先投自己一票,然后因为服务器3 id最大,两者更改选票投给为服务器3。此次投票结果:服务器1为0票,服务器2为0票,服务器3为3票。此时服务器3的票数已经超过半数(3票),服务器3当选Leader。服务器1,2更改状态为FOLLOWING,服务器3更改状态为LEADING;
- 服务器4启动,发起一次选举,投票自己。此时服务器1、2、3已经不是LOOKING状态,不会更改选票信息,交换选票信息结果。服务器3为3票,服务器4为1票。此时服务器4服从多数,更改选票信息为服务器3,服务器4并更改状态为FOLLOWING。
- 服务器5启动,发起一次选举,投票自己。
- 同4一样投票给3,此时服务器3一共5票,服务器5为0票。服务器5并更改状态为FOLLOWIN;最终Leader是服务器3,状态为LEADING。其余服务Follower,状态为FOLLOWING。
6.2.2.2 运行时Leader选举
运行时候如果Master节点崩溃了会走恢复模式,新Leader选出前会暂停对外服务,大致可以分为四个阶段 选举、发现、同步、广播。
- 每个Server会发出一个投票,第一次都是投自己,其中投票信息 = (myid,ZXID)。
- 收集来自各个服务器的投票。
- 处理投票并重新投票,处理逻辑:优先比较ZXID,然后比较myid。
- 统计投票,只要超过半数的机器接收到同样的投票信息,就可以确定leader,注意epoch的增加跟同步。
- 改变服务器状态Looking变为Following或Leading。
- 当 Follower 链接上 Leader 之后,Leader 服务器会根据自己服务器上最后被提交的 ZXID 和 Follower 上的 ZXID 进行比对,比对结果要么回滚,要么和 Leader 同步,保证集群中各个节点的事务一致。
- 集群恢复到广播模式,开始接受客户端的写请求。
6.2.2.3 脑裂
脑裂问题是集群部署必须考虑的一点,比如在Hadoop跟Spark集群中。而ZAB为解决脑裂问题,要求集群内的节点数量为2N+1。当网络分裂后,始终有一个集群的节点数量过半数,而另一个节点数量小于N+1, 因为选举Leader需要过半数的节点同意,所以我们可以得出如下结论:
有了过半机制,对于一个Zookeeper集群,要么没有Leader,要没只有1个Leader,
这样就避免了脑裂问题
三、ZAB一致性协议
详细见浅谈大数据中的 2PC、3PC、Paxos、Raft、ZAB
3.1 ZAB 协议介绍
ZAB (Zookeeper Atomic Broadcast 原子广播协议) 协议是为分布式协调服务ZooKeeper专门设计的一种支持崩溃恢复的一致性协议。基于该协议,ZooKeeper 实现了一种主从模式的系统架构来保持集群中各个副本之间的数据一致性。
分布式系统中leader负责外部客户端的写请求。follower服务器负责读跟同步。这时需要解决俩问题。
Leader 服务器是如何把数据更新到所有的Follower的。
Leader 服务器突然间失效了,集群咋办?
因此ZAB协议为了解决上面两个问题而设计了两种工作模式,整个 Zookeeper 就是在这两个模式之间切换:
原子广播模式:把数据更新到所有的follower。
崩溃恢复模式:Leader发生崩溃时,如何恢复。
3.2 原子广播模式
你可以认为消息广播机制是借鉴了Paxos协议的思想,进行优化的简化版的 2PC协议,就是通过如下的机制保证事务的顺序一致性的。
- leader从客户端收到一个写请求后生成一个新的事务并为这个事务生成一个唯一的ZXID,
- leader将将带有 zxid 的消息作为一个提案(proposal)分发给所有 FIFO队列。
- FIFO队列取出队头proposal给follower节点。
- 当 follower 接收到 proposal,先将 proposal 写到硬盘,写硬盘成功后再向 leader 回一个 ACK。
- FIFO队列把ACK返回给Leader。
- 当leader收到超过一半以上的follower的ack消息(借鉴了Paxos思想),leader会进行commit请求,然后再给FIFO发送commit请求。
- 当follower收到commit请求时,会判断该事务的ZXID是不是比历史队列中的任何事务的ZXID都小,如果是则提交,如果不是则等待比它更小的事务的commit(保证顺序性)。
3.3 崩溃恢复模式
消息广播过程中,Leader 崩溃了还能保证数据一致吗?当 Leader 崩溃会进入崩溃恢复模式。其实主要是对如下两种情况的处理。
1. Leader 在复制数据给所有 Follwer 之后崩溃,咋搞?
2. Leader 在收到 Ack 并提交了自己,同时发送了部分 commit 出去之后崩溃咋办?
针对此问题,ZAB 定义了 2 个原则:
1. ZAB 协议确保丢弃那些只在 Leader 提出/复制,但没有提交的事务。
2. ZAB 协议确保执行那些已经在 Leader 提交的事务最终会被所有服务器提交。
至于如何实现确保提交已经被 Leader 提交的事务,同时丢弃已经被跳过的事务呢?关键点就是依赖上面说到过的 ZXID了。
3.4 ZAB特性
1.一致性保证
可靠提交(Reliable delivery) :如果一个事务 A 被一个server(包括之前崩溃的leader)提交(committed)了,
那么它最终一定会被所有的server提交
2.全局有序(Total order)
假设有A、B两个事务,有一台server先执行A再执行B,那么可以保证所有server上A始终都
被在B之前执行。(所有的节点的ZXID是一致的)
3.因果有序(Causal order)
如果发送者在事务A提交之后再发送B,那么B必将在A之后执行(优先执行ZXID小的事务)
4.高可用性
只要大多数(法定数量)节点启动,系统就行正常运行。借鉴了Paxos协议,为了保证存在
多数与少数,节点的数据量应该是奇数2n+1。
5.可恢复性
当节点下线后重启,它必须保证能恢复到当前正在执行的事务,与leader节点进行数据的同步。
3.5 ZAB 和 Paxos 对比
相同点:
1.两者都存在一个类似于 Leader 进程的角色,由其负责协调多个 Follower 进程的运行.
2.Leader 进程都会等待超过半数的 Follower 做出正确的反馈后,才会将一个提案进行提交.
3.ZAB 协议中,每个 Proposal 中都包含一个 epoch 值来代表当前的 Leader周期,Paxos 中
名字为 Ballot
不同点:
ZAB 用来构建高可用的分布式数据主备系统(Zookeeper),
Paxos 是用来构建分布式一致性状态机系统。
四、Zookeeper客户端
4.1 Zookeeper原生客户端
Zookeeper客户端是异步的哦!需要引入CountDownLatch 来确保连接好了再做下面操作。Zookeeper原生api是不支持迭代式的创建跟删除路径的,具有如下弊端。
会话的连接是异步的;必须用到回调函数 。
Watch需要重复注册:看一次watch注册一次 。
Session重连机制:有时session断开还需要重连接。
开发复杂性较高:开发相对来说比较琐碎。
4.2 ZkClient
开源的zk客户端,在原生API基础上封装,是一个更易于使用的zookeeper客户端,做了如下优化。
优化一 ::在session loss和session expire时自动创建新的ZooKeeper实例进行重连。
优化二:将一次性watcher包装为持久watcher。
4.3 Curator
开源的zk客户端,在原生API基础上封装,apache顶级项目。是Netflix公司开源的一套Zookeeper客户端框架。了解过Zookeeper原生API都会清楚其复杂度。Curator帮助我们在其基础上进行封装、实现一些开发细节,包括接连重连、反复注册Watcher和NodeExistsException等。目前已经作为Apache的顶级项目出现,是最流行的Zookeeper客户端之一。
4.4 Zookeeper图形化客户端工具
五 、Zookeeper使用注意事项
1.集群中机器的数量并不是越多越好,一个写操作需要半数以上的节点ack,
所以集群节点数越多,整个集群可以抗挂点的节点数越多(越可靠),但是吞吐量越差。
集群的数量必须为奇数。
2. zk是基于内存进行读写操作的,有时候会进行消息广播,
因此不建议在节点存取容量比较大的数据。
3.dataDir目录、dataLogDir两个目录会随着时间推移变得庞大,容易造成硬盘满了。
建议自己编写或使用自带的脚本保留最新的n个文件。
4.默认最大连接数 默认为60,配置maxClientCnxns参数,配置单个客户端机器创建
的最大连接数。