目录
一.概述
Zookeeper 是一个分布式协调服务的开源框架, 主要用来解决分布式集群中应用系统的一致性问题。
二.zookeeper的架构图
Leader:
Zookeeper 集群工作的核心
事务请求(写操作) 的唯一调度和处理者,保证集群事务处理的顺序性;集群内部各个服务器的调度者。
Follower:
处理客户端非事务(读操作) 请求,
转发事务请求给 Leader;参与集群 Leader 选举投票 2n-1台可以做集群投票。
此外,针对访问量比较大的 zookeeper 集群, 还可新增观察者角色。
Observer:
观察者角色,观察 Zookeeper 集群的最新状态变化并将这些状态同步过
来,其对于非事务请求可以进行独立处理,对于事务请求,则会转发给 Leader
服务器进行处理。
不会参与任何形式的投票只提供非事务服务,通常用于在不影响集群事务
处理能力的前提下提升集群的非事务处理能力。
三.zookeeper的特性
1.全局数据一致:每个 server 保存一份相同的数据副本, client 无论连接到哪个 server,展示的数据都是一致的,这是最重要的特征;
2. 可靠性:如果消息被其中一台服务器接受,那么将被所有的服务器接受。
3. 顺序性:包括全局有序和偏序两种:全局有序是指如果在一台服务器上消息 a 在消息 b 前发布,则在所有 Server 上消息 a 都将在消息 b 前被发布;偏序是指如果一个消息 b 在消息 a 后被同一个发送者发布, a 必将排在 b 前面。
4. 数据更新原子性:一次数据更新要么成功(半数以上节点成功),要么失败,不存在中间状态;
5. 实时性: Zookeeper 保证客户端将在一个时间间隔范围内获得服务器的更新信息,或者服务器失效的信息。
四.三台机器zookeeper的集群环境搭建
Zookeeper 运行需要 java 环境, 所以需要提前安装 jdk。
Zookeeper 集群搭建指的是 ZooKeeper 分布式模式安装。 通常由 2n+1台 servers 组成。 这是因为为了保证 Leader 选举(基于 Paxos 算法的实现) 能过得到多数的支持,所以 ZooKeeper 集群的数量一般为奇数。
对于安装leader+follower 模式的集群, 大致过程如下:
配置主机名称到 IP 地址映射配置
修改 ZooKeeper 配置文件
远程复制分发安装文件
设置 myid
启动 ZooKeeper 集群
如果要想使用 Observer 模式,可在对应节点的配置文件添加如下配置:
peerType=observer
其次,必须在配置文件指定哪些节点被指定为 Observer,如:
server.1:localhost:2181:3181:observer
服务器IP
主机名
myid的值
192.168.211.102
hadoop102
1
192.168.211.103
hadoop103
2
192.168.211.104
hadoop104
3
- 第一步:下载zookeeeper的压缩包,下载网址如下
Index of /dist/zookeeperhttp://archive.apache.org/dist/zookeeper/
我使用的zk版本为3.4.9
下载完成之后,上传到我们的linux的/oprt/software路径下准备进行安装(可使用lrzsz进行上传)
- 第二步:解压
解压zookeeper的压缩包到/opt/module路径下去,然后准备进行安装
cd /opt/software
tar -zxvf zookeeper-3.4.9.tar.gz -C ../module/
- 第三步:修改配置文件
第一台机器修改配置文件
cd /opt/module/zookeeper-3.4.9/conf/
cp zoo_sample.cfg zoo.cfg
mkdir -p /opt/module/zookeeper-3.4.9/zkdatas/
vim zoo.cfg
由于zookeeper运行时指定的配置文件为zoo.cfg,所以我们需要复制一份配置文件
创建zookeeper的文件存储目录
编辑配置文件:
##指定zookeeper的文件存储目录
##打开autopurge.snapRetainCount=3和autopurge.purgeInterval=1的注释
##添加三行配置
dataDir=/export/servers/zookeeper-3.4.9/zkdatas
autopurge.snapRetainCount=3
autopurge.purgeInterval=1
server.1=node01:2888:3888
server.2=node02:2888:3888
server.3=node03:2888:3888
- 第四步:添加myid配置
在第一台机器的/opt/module/zookeeper-3.4.9/zkdatas/这个路径下创建一个文件,文件名为myid ,文件内容为1
echo 1 > /opt/module/zookeeper-3.4.9/zkdatas/myid
- 第五步:安装包分发并修改myid的值
安装包分发到其他机器
第一台机器上面执行以下两个命令
scp -r /opt/module/zookeeper-3.4.9/ node02:$PWD
scp -r /opt/module/zookeeper-3.4.9/ node03:$PWD
第二台机器上修改myid的值为2
echo 2 > /opt/module/zookeeper-3.4.9/zkdatas/myid
第三台机器上修改myid的值为3
echo 3 > /opt/module/zookeeper-3.4.9/zkdatas/myid
- 第六步:三台机器启动zookeeper服务
三台机器启动zookeeper服务(请在防火墙关闭状态下启动,否则会失败,重要!!!)
这个命令三台机器都要执行
/opt/module/zookeeper-3.4.9/bin/zkServer.sh start
输入jps查看 QuorumPeerMain
查看三台虚拟机的启动状态
/opt/module/zookeeper-3.4.9/bin/zkServer.sh status
五.zookeeper的shell操作
1.客户端连接
运行 zkCli.sh 进入命令行工具。
/opt/module/zookeeper-3.4.9/bin/zkCli.sh
输入 任意字符并回车,输出 zk shell 提示:
2.shell操作
(zookeeper没有相对路径,只有绝对路径)
节点的操作
创建节点
create [-s] [-e] path data acl
其中,-s 或-e 分别指定节点特性,顺序或临时节点,若不指定,则表示持 久节点;acl 用来进行权限控制。
读取节点
与读取相关的命令有 ls 命令和 get 命令:
ls 命令可以列出 Zookeeper 指定节点下的所有子节点,只能查看指定节点下的第一级的所有子节点;
ls path [watch]
get 命令可以获取 Zookeeper 指定节点的数据内容和属性信息。
get path [watch]
更新节点
set path data [version]
data 就是要更新的新内容,version 表示数据版本。
删除节点
delete path [version]
若删除节点存在子节点,那么无法删除该节点,必须先删除子节点,再删除父节点。
Rmr path可以递归删除节点。
注:rmr / 可能会删除zookeeper所有文件,导致重装,谨慎操作!!!
quota
setquota -n|-b val path
对节点增加限制。 n:表示子节点的最大个数; b:表示数据值的最大长度 ;val:子节点最大个数或数据值的最大长度 ;path:节点路径
listquota path
列出指定节点的 quota,子节点个数为 2,数据长度-1 表示没限制
其他命令
history : 列出历史命令
redo:该命令可以重新执行指定命令编号的历史命令,命令编号可以通过history 查看
六.zookeeper的数据模型
ZooKeeper采用树形层次结构,ZooKeeper 树中的每个节点被称为—Znode。和文件系统的目录树一样,ZooKeeper 树中的每个节点可以拥有子节点。但也有不同之处:
1.Znode 兼具文件和目录两种特点。既像文件一样维护着数据、元信息、ACL、 时间戳等数据结构,又像目录一样可以作为路径标识的一部分,并可以具有 子 Znode。用户对 Znode 具有增、删、改、查等操作(权限允许的情况下)。
2.Znode 具有原子性操作,读操作将获取与节点相关的所有数据,写操作也将 替换掉节点的所有数据。另外,每一个节点都拥有自己的 ACL(访问控制列表),这个列表规定了用户的权限,即限定了特定用户对目标节点可以执行的操作。
3.Znode 存储数据大小有限制。ZooKeeper 虽然可以关联一些数据,但并没有 被设计为常规的数据库或者大数据存储,相反的是,它用来管理调度数据, 比如分布式应用中的配置文件信息、状态信息、汇集位置等等。这些数据的共同特性就是它们都是很小的数据,通常以 KB 为大小单位。ZooKeeper 的服 务器和客户端都被设计为严格检查并限制每个 Znode 的数据大小至多 1M,常规使用中应该远小于此值。
4.Znode 通过路径引用,如同 Unix 中的文件路径。路径必须是绝对的,因此他 们必须由斜杠字符来开头。除此以外,他们必须是唯一的,也就是说每一个 路径只有一个表示,因此这些路径不能改变。在 ZooKeeper 中,路径由 Unicode 字符串组成,并且有一些限制。字符串"/zookeeper"用以保存管理 信息,比如关键配额信息。
1.数据结构
图中的每个节点称为一个 Znode。 每个 Znode 由 3 部分组成:
① stat:此为状态信息, 描述该 Znode 的版本, 权限等信息
② data:与该 Znode 关联的数据
③ children:该 Znode 下的子节点
2.节点类型
Znode 节点有四种类型:
PERSISTENT:永久节点
EPHEMERAL:临时节点
PERSISTENT_SEQUENTIAL:永久节点、序列化
EPHEMERAL_SEQUENTIAL:临时节点、序列化
临时节点:该节点的生命周期依赖于创建它们的会话。一旦会话结束,临时 节点将被自动删除,当然可以也可以手动删除。临时节点不允许拥有子节点。
永久节点:该节点的生命周期不依赖于会话,并且只有在客户端显示执行删除操作的时候,他们才能被删除。
Znode 还有一个序列化的特性,如果创建的时候指定的话,该 Znode 的名字后面会自动追加一个不断增加的序列号。序列号对于此节点的父节点来说是唯一的,这样便会记录每个子节点创建的先后顺序。
3.节点属性
每个 znode 都包含了一系列的属性,通过命令 get,可以获得节点的属性。
dataVersion:数据版本号,每次对节点进行 set 操作,dataVersion 的值都会增加 1(即使设置的是相同的数据),可有效避免了数据更新时出现的先后顺序问题。
cversion :子节点的版本号。当 znode 的子节点有变化时,cversion 的值就会增加 1。
aclVersion :ACL 的版本号。
cZxid :Znode 创建的事务 id。
mZxid :Znode 被修改的事务 id,即每次对 znode 的修改都会更新 mZxid。对于 zk 来说,每次的变化都会产生一个唯一的事务 id,zxid(ZooKeeper Transaction Id)。通过 zxid,可以确定更新操作的先后顺序。例如,如果 zxid1小于 zxid2,说明 zxid1 操作先于 zxid2 发生,zxid 对于整个 zk 都是唯一的,即使操作的是不同的 znode。
ctime:节点创建时的时间戳.
mtime:节点最新一次更新发生时的时间戳.
ephemeralOwner:如果该节点为临时节点, ephemeralOwner 值表示与该节点绑定的 session id. 如果不是, ephemeralOwner 值为 0.在 client 和 server 通信之前,首先需要建立连接,该连接称为 session。连接建立后,如果发生连接超时、授权失败,或者显式关闭连接,连接便处于 CLOSED状态, 此时 session 结束。
七.zookeeper的watch机制
ZooKeeper 允许客户端向服务端注册一个 Watcher 监听,当服务端的一些事件触发了这个 Watcher,那么就会向指定客户端发送一个事件通知来实现分布式的通知功能。触发事件种类很多,如:节点创建,节点删除,节点改变,子节点改变等。
总的来说可以概括 Watcher 为以下三个过程:客户端向服务端注册 Watcher、服务端事件发生触发 Watcher、客户端回调 Watcher 得到触发事件情况
1.watch机制特点
一次性触发:事件发生触发监听,一个 watcher event 就会被发送到设置监听的客户端,这种效果是一次性的,后续再次发生同样的事件,不会再次触发。
事件封装:ZooKeeper 使用 WatchedEvent 对象来封装服务端事件并传递。WatchedEvent 包含了每一个事件的三个基本属性:通知状态(keeperState),事件类型(EventType)和节点路径(path)
- event 异步发送:watcher 的通知事件从服务端发送到客户端是异步的。
先注册再触发:Zookeeper 中的 watch 机制,必须客户端先去服务端注册监听,这样事件发送才会触发监听,通知给客户端。
2.shell客户端设置watch机制
设置节点数据变动监听:
通过另一个客户端更改节点数据:
此时设置监听的节点收到通知:
八.zookeeper的javaAPI
1.创建maven工程,导入jar包
以下是工程所需要的依赖
curator-framework版本不需要太高,可能会有冲突
<dependencies>
<dependency>
<groupId>org.apache.curator</groupId>
<artifactId>curator-framework</artifactId>
<version>2.12.0</version>
</dependency>
<dependency>
<groupId>org.apache.curator</groupId>
<artifactId>curator-recipes</artifactId>
<version>2.12.0</version>
</dependency>
<dependency>
<groupId>com.google.collections</groupId>
<artifactId>google-collections</artifactId>
<version>1.0</version>
</dependency>
<!-- https://mvnrepository.com/artifact/junit/junit -->
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>4.12</version>
<scope>test</scope>
</dependency>
</dependencies>
<build>
<plugins>
<!-- java编译插件 -->
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>3.2</version>
<configuration>
<source>1.8</source>
<target>1.8</target>
<encoding>UTF-8</encoding>
</configuration>
</plugin>
</plugins>
</build>
2.节点的操作
例:创建一个永久节点
//创建一个永久节点
@Test
public void createNode() throws Exception {
// System.out.println("Hello World");
//得到一个客户端
ExponentialBackoffRetry exponentialBackoffRetry = new ExponentialBackoffRetry(3000,5);
CuratorFramework curatorFramework = CuratorFrameworkFactory.newClient("192.168.211.102:2181," +
"192.168.211.103:2181,192.168.211.104:2181",exponentialBackoffRetry);
//开启服务端
curatorFramework.start();
//创建一个永久节点
curatorFramework.create().creatingParentsIfNeeded().withMode(CreateMode.PERSISTENT).forPath(
"/bigdata/hello/abc","Hello World".getBytes());
//关闭服务端
curatorFramework.close();
}
//修改一个节点
@Test
public void setNode() throws Exception {
CuratorFramework curatorFramework = CuratorFrameworkFactory.newClient("192.168.211.102:2181," +
"192.168.211.103:2181,192.168.211.104:2181",
new ExponentialBackoffRetry(3000, 8));
curatorFramework.start();
curatorFramework.setData().forPath("/test","yalin".getBytes());
curatorFramework.close();
}
//获得一个节点
@Test
public void getNode() throws Exception {
CuratorFramework curatorFramework = CuratorFrameworkFactory.newClient("192.168.211.102:2181," +
"192.168.211.103:2181,192.168.211.104:2181",
new ExponentialBackoffRetry(3000, 8));
curatorFramework.start();
byte[] bytes = curatorFramework.getData().forPath("/test");
String node = new String(bytes);
System.out.println(node);
curatorFramework.close();
}
3.节点watch机制
//zk的watch机制
@Test
public void watchNode() throws Exception {
CuratorFramework curatorFramework = CuratorFrameworkFactory.newClient("192.168.211.102:2181," +
"192.168.211.103:2181,192.168.211.104:2181",
new ExponentialBackoffRetry(5000, 5));
curatorFramework.start();
//通过使用treecache来监听节点
TreeCache treeCache = new TreeCache(curatorFramework, "/test");
treeCache.getListenable().addListener(new TreeCacheListener() {
//接口的匿名内部类,并在此方法中实现监听的逻辑,所有的监听事件都会回调这个方法
@Override
public void childEvent(CuratorFramework curatorFramework, TreeCacheEvent event) throws Exception {
ChildData data = event.getData();
if(data != null){
//type封装的事件,如node的修改,新增,删除等事件
TreeCacheEvent.Type type = event.getType();
switch (type){
case NODE_ADDED://新增节点
System.out.println("NODE_ADDED : "+ data.getPath() +" 数据:"+ new String(data.getData()));
break;
case NODE_REMOVED://删除节点
System.out.println("NODE_REMOVED : "+ data.getPath() +" 数据:"+ new String(data.getData()));
break;
case INITIALIZED://初始化操作
System.out.println("初始化操作我监听到了");
break;
case NODE_UPDATED://修改节点
System.out.println("NODE_UPDATED : "+ data.getPath() +" 数据:"+ new String(data.getData()));
break;
default:
System.out.println("啥事儿没有");
break;
}
}
}
});
//调用start方法开始监听
treeCache.start();
Thread.sleep(50000000);
}