05第五章:客户端操作

一、客户端命令行操作

1、命令行语法

命令基本语法      功能描述

help            显示所有操作命令

ls path         使用 ls 命令来查看当前 znode 的子节点 [可监听]
                -w 监听子节点变化
                -s 附加次级信息


create          普通创建
                -s 含有序列
                -e 临时(重启或者超时消失)


get path       获得节点的值 [可监听]
               -w 监听节点内容变化
               -s 附加次级信息

set            设置节点的具体值

stat           查看节点状态

delete         删除节点

deleteall      递归删除节点

(1)启动客户端

连接到指定主机的客户端
[root@hadoop102 zookeeper-3.5.7]# bin/zkCli.sh -server hadoop102:2181

(2)显示所有操作命令

2、znode 节点数据信息

(1) 查看当前 znode 中所包含的内容

(2) 查看当前节点详细数据

[zk: hadoop102:2181(CONNECTED) 4]
[zk: hadoop102:2181(CONNECTED) 4] ls -s /
[zookeeper]cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1

说明:

(1)czxid:创建节点的事务 zxid

每次修改 ZooKeeper 状态都会产生一个 ZooKeeper 事务 ID。事务 ID 是 ZooKeeper 中所有修改总的次序。每次修改都有唯一的 zxid,如果 zxid1 小于 zxid2,那么 zxid1 在 zxid2 之前发生。

(2)ctime:znode 被创建的毫秒数(从 1970 年开始)
(3)mzxid:znode 最后更新的事务 zxid
(4)mtime:znode 最后修改的毫秒数(从 1970 年开始)
(5)pZxid:znode 最后更新的子节点 zxid
(6)cversion:znode 子节点变化号,znode 子节点修改次数
(7)dataversion:znode 数据变化号
(8)aclVersion:znode 访问控制列表的变化号
(9)ephemeralOwner:如果是临时节点,这个是 znode 拥有者的 session id。如果不是临时节点则是 0。
(10)dataLength:znode 的数据长度
(11)numChildren:znode 子节点数量

3、节点类型(持久/短暂/有序号/无序号)

持久(Persistent):客户端和服务器端断开连接后,创建的节点不删除

短暂(Ephemeral):客户端和服务器端断开连接后,创建的节点自己删除

说明:创建 znode 时设置顺序标识,znode 名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护

注意:在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通 过顺序号推断事件的顺序

(1)持久化目录节点:客户端与 Zookeeper 断开连接后,该节点依旧存在

(2)持久化顺序编号目录节点:客户端与 Zookeeper 断开连接后,该节点依旧存在,只是 Zookeeper 给该节点名称进行顺序编号

(3)临时目录节点:客户端与 Zookeeper 断开连接后,该节点被删除

(4)临时顺序编号目录节点:客户端与 Zookeeper 断开连接后,该节点被删除,只是 Zookeeper 给该节点名称进行顺序编号。

案例
(1)分别创建 2 个普通节点(永久节点 + 不带序号)
[zk: hadoop102:2181(CONNECTED) 5] create /sanguo "diaochan"
Created /sanguo
[zk: hadoop102:2181(CONNECTED) 6] create /sanguo/shuguo "liubei"
Created /sanguo/shuguo

注意:创建节点时,要赋值

(2)获得节点的值
[zk: hadoop102:2181(CONNECTED) 7] get /sanguo
diaochan
[zk: hadoop102:2181(CONNECTED) 8] get -s /sanguo
diaochan
cZxid = 0x200000002
ctime = Sat Apr 15 15:30:27 CST 2023
mZxid = 0x200000002
mtime = Sat Apr 15 15:30:27 CST 2023
pZxid = 0x200000003
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 8
numChildren = 1
[zk: hadoop102:2181(CONNECTED) 9] get /sanguo/shuguo
liubei
[zk: hadoop102:2181(CONNECTED) 10] get -s /sanguo/shuguo
liubei
cZxid = 0x200000003
ctime = Sat Apr 15 15:30:38 CST 2023
mZxid = 0x200000003
mtime = Sat Apr 15 15:30:38 CST 2023
pZxid = 0x200000003
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 6
numChildren = 0
(3)创建带序号的节点(永久节点 + 带序号)

(a)先创建一个普通的根节点/sanguo/weiguo

[zk: hadoop102:2181(CONNECTED) 2] create /sanguo/weiguo "caocao"
Created /sanguo/weiguo

(b)创建带序号的节点

[zk: hadoop102:2181(CONNECTED) 9] create -s /sanguo/weiguo/zhangliao "zhangliao"
Created /sanguo/weiguo/zhangliao0000000000
[zk: hadoop102:2181(CONNECTED) 10] create -s /sanguo/weiguo/zhangliao "zhangliao"
Created /sanguo/weiguo/zhangliao0000000001
[zk: hadoop102:2181(CONNECTED) 11] create -s /sanguo/weiguo/xuchu "xuchu"
Created /sanguo/weiguo/xuchu0000000002

如果原来没有序号节点,序号从 0 开始依次递增。如果原节点下已有 2 个节点,则再排 序时从 2 开始,以此类推。

(4)创建临时节点(临时节点 + 不带序号 or 带序号)

(a)创建短暂的不带序号的节点

[zk: hadoop102:2181(CONNECTED) 12] create -e /sanguo/wuguo "zhouyu"
Created /sanguo/wuguo

(b)创建短暂的带序号的节点

[zk: hadoop102:2181(CONNECTED) 13] create -e -s /sanguo/wuguo "zhouyu"
Created /sanguo/wuguo0000000004

(c)在当前客户端是能查看到的

[zk: hadoop102:2181(CONNECTED) 14] ls /sanguo
[shuguo, weiguo, wuguo, wuguo0000000004]

(d)退出当前客户端然后再重启客户端

[zk: hadoop102:2181(CONNECTED) 15] quit

(e)再次查看根目录下短暂节点已经删除

[zk: localhost:2181(CONNECTED) 0] ls /sanguo
[shuguo, weiguo]
(5)修改节点数据值
[zk: localhost:2181(CONNECTED) 1] ls /sanguo
[shuguo, weiguo]
[zk: localhost:2181(CONNECTED) 2] get /sanguo/weiguo
caocao
[zk: localhost:2181(CONNECTED) 3] set /sanguo/weiguo "caopi"
[zk: localhost:2181(CONNECTED) 4] get /sanguo/weiguo
caopi

4、监听器原理

客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、节点删除、子目录节点增加删除)时,ZooKeeper 会通知客户端。监听机制保证 ZooKeeper 保存的任何的数据的任何改变都能快速的响应到监听了该节点的应用程序。

原理

(1)监听原理详解

1)首先要有一个main()线程
2)在main线程中创建Zookeeper客户端,这时就会创建两个线程,
  一个负责网络连接通信(connet)
  一个负责监听(listener)
3)通过connect线程将注册的监听事件发送给Zookeeper。
4)在Zookeeper的注册监听器列表中将注册的监听事件添加到列表中。
5)Zookeeper监听到有数据或路径变化,就会将这个消息发送给listener线程。
6)listener线程内部调用了process()方法。

(2) 常见的监听

监听节点数据的变化
get path [watch]

监听子节点增减的变化
ls path [watch]
案例
(1) 节点的值变化监听

(a)在 hadoop102 主机上注册监听/sanguo 节点数据变化

[zk: localhost:2181(CONNECTED) 7] get -w /sanguo

(b)在 hadoop103 主机上修改/sanguo 节点的数据

[zk: localhost:2181(CONNECTED) 0] set /sanguo "xisi"

(c)观察 hadoop102 主机收到数据变化的监听

注意:在 hadoop103 再多次修改/sanguo 的值,hadoop102 上不会再收到监听。因为注册一次,只能监听一次。想再次监听,需要再次注册。

(2) 节点的子节点变化监听(路径变化)

(a)在 hadoop102 主机上注册监听/sanguo 节点的子节点变化

[zk: localhost:2181(CONNECTED) 8] ls -w /sanguo
[shuguo, weiguo]

(b)在 hadoop103 主机/sanguo 节点上创建子节点

[zk: localhost:2181(CONNECTED) 2] create /sanguo/wuguo "zhouyu"
Created /sanguo/wuguo

(c)观察 hadoop102 主机收到子节点变化的监听

注意:节点的路径变化,也是注册一次,生效一次。想多次生效,就需要多次注册。

5、节点删除与查看

(1)删除节点

delete /sanguo/weiguo

(2)递归删除节点

deleteall /sanguo/shuguo

(3)查看节点状态

[zk: localhost:2181(CONNECTED) 9] stat /sanguo
cZxid = 0x200000002
ctime = Sat Apr 15 15:30:27 CST 2023
mZxid = 0x20000001f
mtime = Sat Apr 15 15:52:20 CST 2023
pZxid = 0x200000020
cversion = 9
dataVersion = 2
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 5
numChildren = 3

二、客户端 API 操作

前提:保证 hadoop102、hadoop103、hadoop104 服务器上 Zookeeper 集群服务端启动。

1、IDEA 环境搭建

(1)创建一个工程:zookeeper

(2)添加 pom 文件

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xmlns="http://maven.apache.org/POM/4.0.0"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>groupId</groupId>
    <artifactId>zkLearn</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
    </properties>

    <dependencies>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>RELEASE</version>
        </dependency>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-core</artifactId>
            <version>2.8.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.zookeeper</groupId>
            <artifactId>zookeeper</artifactId>
            <version>3.5.7</version>
        </dependency>
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <version>1.18.24</version>
        </dependency>
    </dependencies>

</project>

(3)拷贝 log4j.properties 文件到项目根目录 需要在项目的 src/main/resources 目录下,新建一个文件,命名为“log4j.properties”,在文件中填入

log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

2、创建 ZooKeeper 客户端

创建类名称 zkClient

public class ZkClient {

    // 注意:逗号前后不能有空格
    private static final String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";

    private static final int sessionTimeout = 2000;
    private ZooKeeper zkClient = null;

    @Before
    public void init() throws IOException {
        zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
            @Override
            public void process(WatchedEvent watchedEvent) {
                // 收到事件通知后的回调函数(用户的业务逻辑)
                System.out.println(watchedEvent.getType() + "--" + watchedEvent.getPath());
                // 再次启动监听
                try {
                    List<String> children = zkClient.getChildren("/", true);
                    for (String child : children) {
                        System.out.println(child);
                    }
                } catch (Exception e) {
                    e.printStackTrace();
                }
            }
        });

        log.info("\n 获取zkClient:{}", zkClient);
    }
}

3、创建子节点

    @Test
    public void create() throws Exception {
        // 参数 1:要创建的节点的路径; 参数 2:节点数据 ; 参数 3:节点权限 ; 参数 4:节点的类型
        String nodeCreated = zkClient.create("/xiyouji", "wukong".getBytes(),
                ZooDefs.Ids.OPEN_ACL_UNSAFE,
                CreateMode.PERSISTENT);
    }

测试:在 hadoop102 的 zk 客户端上查看创建节点情况

4、获取子节点并监听节点变化

    // 获取子节点
    @Test
    public void getChildren() throws Exception {
        List<String> children = zkClient.getChildren("/", true);
        for (String child : children) {
            System.out.println(child);
        }
        // 延时阻塞
        Thread.sleep(Long.MAX_VALUE);
    }

(a)在控制台上看到输出的节点内容

(b)在 hadoop102 的客户端上创建再创建一个节点/honglou,观察 IDEA 控制台,可以看到输入的节点增加了 /honglou

©在 hadoop102 的客户端上删除节点/honglou,观察 IDEA 控制台删除了节点 /honglou

5、判断 Znode 是否存在

    // 判断 znode 是否存在
    @Test
    public void exist() throws Exception {
        Stat stat = zkClient.exists("/sanguo", false);
        System.out.println(stat == null ? "not exist" : "exist");
    }

三、客户端向服务端写数据流程

写流程之写入请求直接发送给 Leader 节点

写流程之写入请求发送给 follower 节点

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值