zookeeper

Zookeeper 是一个开源的分布式协调服务,用于解决一致性问题。它具有全局数据一致、可靠性、顺序性等特性。文章详细介绍了Zookeeper的架构、集群环境搭建、shell操作、数据模型以及watch机制,并提供了javaAPI的使用示例。
摘要由CSDN通过智能技术生成

目录

一.概述

二.zookeeper的架构图

三.zookeeper的特性

四.三台机器zookeeper的集群环境搭建

五.zookeeper的shell操作

1.客户端连接

2.shell操作

六.zookeeper的数据模型

1.数据结构

 2.节点类型

3.节点属性

七.zookeeper的watch机制

1.watch机制特点

2.shell客户端设置watch机制

八.zookeeper的javaAPI

1.创建maven工程,导入jar包

2.节点的操作

3.节点watch机制


一.概述

Zookeeper 是一个分布式协调服务的开源框架, 主要用来解决分布式集群中应用系统的一致性问题。

二.zookeeper的架构图

Leader:
Zookeeper 集群工作的核心
事务请求(写操作) 的唯一调度和处理者,保证集群事务处理的顺序性;集群内部各个服务器的调度者。

Follower:
处理客户端非事务(读操作) 请求,

转发事务请求给 Leader;参与集群 Leader 选举投票 2n-1台可以做集群投票。

此外,针对访问量比较大的 zookeeper 集群, 还可新增观察者角色。

Observer:
观察者角色,观察 Zookeeper 集群的最新状态变化并将这些状态同步过
来,其对于非事务请求可以进行独立处理,对于事务请求,则会转发给 Leader
服务器进行处理。
不会参与任何形式的投票只提供非事务服务,通常用于在不影响集群事务
处理能力的前提下提升集群的非事务处理能力。

三.zookeeper的特性

1.全局数据一致:每个 server 保存一份相同的数据副本, client 无论连接到哪个 server,展示的数据都是一致的,这是最重要的特征;
2. 可靠性:如果消息被其中一台服务器接受,那么将被所有的服务器接受。
3. 顺序性:包括全局有序和偏序两种:全局有序是指如果在一台服务器上消息 a 在消息 b 前发布,则在所有 Server 上消息 a 都将在消息 b 前被发布;偏序是指如果一个消息 b 在消息 a 后被同一个发送者发布, a 必将排在 b 前面。
4. 数据更新原子性:一次数据更新要么成功(半数以上节点成功),要么失败,不存在中间状态;
5. 实时性: Zookeeper 保证客户端将在一个时间间隔范围内获得服务器的更新信息,或者服务器失效的信息。

四.三台机器zookeeper的集群环境搭建

        Zookeeper 运行需要 java 环境, 所以需要提前安装 jdk

        Zookeeper 集群搭建指的是 ZooKeeper 分布式模式安装。 通常由 2n+1台 servers 组成。 这是因为为了保证 Leader 选举(基于 Paxos 算法的实现) 能过得到多数的支持,所以 ZooKeeper 集群的数量一般为奇数。

        对于安装leader+follower 模式的集群, 大致过程如下:

配置主机名称到 IP 地址映射配置
修改 ZooKeeper 配置文件
远程复制分发安装文件
设置 myid
启动 ZooKeeper 集群


如果要想使用 Observer 模式,可在对应节点的配置文件添加如下配置:
 peerType=observer
 其次,必须在配置文件指定哪些节点被指定为 Observer,如:
server.1:localhost:2181:3181:observer

服务器IP

主机名

myid的值

192.168.211.102

hadoop102

1

192.168.211.103

hadoop103

2

192.168.211.104

hadoop104

3

  • 第一步:下载zookeeeper的压缩包,下载网址如下

Index of /dist/zookeeperhttp://archive.apache.org/dist/zookeeper/

我使用的zk版本为3.4.9

下载完成之后,上传到我们的linux的/oprt/software路径下准备进行安装(可使用lrzsz进行上传)

  • 第二步:解压

        解压zookeeper的压缩包到/opt/module路径下去,然后准备进行安装

cd /opt/software
tar -zxvf zookeeper-3.4.9.tar.gz -C ../module/

  •  第三步:修改配置文件

        第一台机器修改配置文件

cd /opt/module/zookeeper-3.4.9/conf/
cp zoo_sample.cfg zoo.cfg
mkdir -p /opt/module/zookeeper-3.4.9/zkdatas/
vim  zoo.cfg

 由于zookeeper运行时指定的配置文件为zoo.cfg,所以我们需要复制一份配置文件

 创建zookeeper的文件存储目录

 编辑配置文件:

        ##指定zookeeper的文件存储目录

        ##打开autopurge.snapRetainCount=3和autopurge.purgeInterval=1的注释

        ##添加三行配置

dataDir=/export/servers/zookeeper-3.4.9/zkdatas

autopurge.snapRetainCount=3

autopurge.purgeInterval=1

server.1=node01:2888:3888

server.2=node02:2888:3888

server.3=node03:2888:3888

  •  第四步:添加myid配置

        在第一台机器的/opt/module/zookeeper-3.4.9/zkdatas/这个路径下创建一个文件,文件名为myid ,文件内容为1

echo 1 > /opt/module/zookeeper-3.4.9/zkdatas/myid
  • 第五步:安装包分发并修改myid的值

        安装包分发到其他机器

        第一台机器上面执行以下两个命令

scp -r  /opt/module/zookeeper-3.4.9/ node02:$PWD
scp -r  /opt/module/zookeeper-3.4.9/ node03:$PWD

        第二台机器上修改myid的值为2

echo 2 > /opt/module/zookeeper-3.4.9/zkdatas/myid

        第三台机器上修改myid的值为3

echo 3 > /opt/module/zookeeper-3.4.9/zkdatas/myid
  • 第六步:三台机器启动zookeeper服务

        三台机器启动zookeeper服务(请在防火墙关闭状态下启动,否则会失败,重要!!!)

        这个命令三台机器都要执行

/opt/module/zookeeper-3.4.9/bin/zkServer.sh start

        输入jps查看 QuorumPeerMain

        查看三台虚拟机的启动状态 

/opt/module/zookeeper-3.4.9/bin/zkServer.sh  status

五.zookeeper的shell操作

1.客户端连接

        运行 zkCli.sh 进入命令行工具。

/opt/module/zookeeper-3.4.9/bin/zkCli.sh

输入 任意字符并回车,输出 zk shell 提示:

2.shell操作 

(zookeeper没有相对路径,只有绝对路径)

节点的操作

创建节点

create [-s] [-e] path data acl

        其中,-s 或-e 分别指定节点特性,顺序或临时节点,若不指定,则表示持 久节点;acl 用来进行权限控制。

读取节点

        与读取相关的命令有 ls  命令和 get  命令:

        ls 命令可以列出 Zookeeper 指定节点下的所有子节点,只能查看指定节点下的第一级的所有子节点;

 ls path [watch]

        get 命令可以获取 Zookeeper 指定节点的数据内容和属性信息。

get path [watch]

更新节点

set path data [version]

data 就是要更新的新内容,version 表示数据版本。

删除节点

delete path [version]

        若删除节点存在子节点,那么无法删除该节点,必须先删除子节点,再删除父节点。

                Rmr path可以递归删除节点。

注:rmr / 可能会删除zookeeper所有文件,导致重装,谨慎操作!!!

quota

setquota -n|-b val path

        对节点增加限制。 n:表示子节点的最大个数; b:表示数据值的最大长度 ;val:子节点最大个数或数据值的最大长度 ;path:节点路径

listquota path

        列出指定节点的 quota,子节点个数为 2,数据长度-1 表示没限制

其他命令

        history : 列出历史命令

        redo:该命令可以重新执行指定命令编号的历史命令,命令编号可以通过history 查看

六.zookeeper的数据模型

        ZooKeeper采用树形层次结构,ZooKeeper 树中的每个节点被称为—Znode。和文件系统的目录树一样,ZooKeeper 树中的每个节点可以拥有子节点。但也有不同之处:

        1.Znode 兼具文件和目录两种特点。既像文件一样维护着数据、元信息、ACL、 时间戳等数据结构,又像目录一样可以作为路径标识的一部分,并可以具有 子 Znode。用户对 Znode 具有增、删、改、查等操作(权限允许的情况下)。

        2.Znode 具有原子性操作,读操作将获取与节点相关的所有数据,写操作也将 替换掉节点的所有数据。另外,每一个节点都拥有自己的 ACL(访问控制列表),这个列表规定了用户的权限,即限定了特定用户对目标节点可以执行的操作。

        3.Znode 存储数据大小有限制。ZooKeeper 虽然可以关联一些数据,但并没有 被设计为常规的数据库或者大数据存储,相反的是,它用来管理调度数据, 比如分布式应用中的配置文件信息、状态信息、汇集位置等等。这些数据的共同特性就是它们都是很小的数据,通常以 KB 为大小单位。ZooKeeper 的服 务器和客户端都被设计为严格检查并限制每个 Znode 的数据大小至多 1M,常规使用中应该远小于此值。

        4.Znode 通过路径引用,如同 Unix 中的文件路径。路径必须是绝对的,因此他 们必须由斜杠字符来开头。除此以外,他们必须是唯一的,也就是说每一个 路径只有一个表示,因此这些路径不能改变。在 ZooKeeper 中,路径由 Unicode 字符串组成,并且有一些限制。字符串"/zookeeper"用以保存管理 信息,比如关键配额信息。

1.数据结构

图中的每个节点称为一个 Znode。 每个 Znode 由 3 部分组成:

① stat:此为状态信息, 描述该 Znode 的版本, 权限等信息

② data:与该 Znode 关联的数据

③ children:该 Znode 下的子节点

 2.节点类型

         Znode 节点有四种类型:

PERSISTENT:永久节点

EPHEMERAL:临时节点

PERSISTENT_SEQUENTIAL:永久节点、序列化

EPHEMERAL_SEQUENTIAL:临时节点、序列化

临时节点:该节点的生命周期依赖于创建它们的会话。一旦会话结束,临时 节点将被自动删除,当然可以也可以手动删除。临时节点不允许拥有子节点。

永久节点:该节点的生命周期不依赖于会话,并且只有在客户端显示执行删除操作的时候,他们才能被删除。

Znode 还有一个序列化的特性,如果创建的时候指定的话,该 Znode 的名字后面会自动追加一个不断增加的序列号。序列号对于此节点的父节点来说是唯一的,这样便会记录每个子节点创建的先后顺序。

3.节点属性

        每个 znode 都包含了一系列的属性,通过命令 get,可以获得节点的属性。

dataVersion:数据版本号,每次对节点进行 set 操作,dataVersion 的值都会增加 1(即使设置的是相同的数据),可有效避免了数据更新时出现的先后顺序问题。

cversion :子节点的版本号。当 znode 的子节点有变化时,cversion 的值就会增加 1。

aclVersion :ACL 的版本号。

cZxid :Znode 创建的事务 id。

mZxid  :Znode 被修改的事务 id,即每次对 znode 的修改都会更新 mZxid。对于 zk 来说,每次的变化都会产生一个唯一的事务 id,zxid(ZooKeeper Transaction Id)。通过 zxid,可以确定更新操作的先后顺序。例如,如果 zxid1小于 zxid2,说明 zxid1 操作先于 zxid2 发生,zxid 对于整个 zk 都是唯一的,即使操作的是不同的 znode。

ctime:节点创建时的时间戳.

mtime:节点最新一次更新发生时的时间戳.

ephemeralOwner:如果该节点为临时节点, ephemeralOwner 值表示与该节点绑定的 session id. 如果不是, ephemeralOwner 值为 0.在 client 和 server 通信之前,首先需要建立连接,该连接称为 session。连接建立后,如果发生连接超时、授权失败,或者显式关闭连接,连接便处于 CLOSED状态, 此时 session 结束。

七.zookeeper的watch机制

        ZooKeeper 允许客户端向服务端注册一个 Watcher 监听,当服务端的一些事件触发了这个 Watcher,那么就会向指定客户端发送一个事件通知来实现分布式的通知功能。触发事件种类很多,如:节点创建,节点删除,节点改变,子节点改变等。

        总的来说可以概括 Watcher 为以下三个过程:客户端向服务端注册 Watcher、服务端事件发生触发 Watcher、客户端回调 Watcher 得到触发事件情况

1.watch机制特点

        一次性触发:事件发生触发监听,一个 watcher event 就会被发送到设置监听的客户端,这种效果是一次性的,后续再次发生同样的事件,不会再次触发。

        事件封装:ZooKeeper 使用 WatchedEvent 对象来封装服务端事件并传递。WatchedEvent 包含了每一个事件的三个基本属性:通知状态(keeperState事件类型EventType节点路径path

  •         event 异步发送:watcher 的通知事件从服务端发送到客户端是异步的。

        先注册再触发:Zookeeper 中的 watch 机制,必须客户端先去服务端注册监听,这样事件发送才会触发监听,通知给客户端。

2.shell客户端设置watch机制

        设置节点数据变动监听:

        通过另一个客户端更改节点数据:

        此时设置监听的节点收到通知:

八.zookeeper的javaAPI

1.创建maven工程,导入jar包

        以下是工程所需要的依赖

        curator-framework版本不需要太高,可能会有冲突

<dependencies>
        <dependency>
            <groupId>org.apache.curator</groupId>
            <artifactId>curator-framework</artifactId>
            <version>2.12.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.curator</groupId>
            <artifactId>curator-recipes</artifactId>
            <version>2.12.0</version>
        </dependency>
        <dependency>
            <groupId>com.google.collections</groupId>
            <artifactId>google-collections</artifactId>
            <version>1.0</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/junit/junit -->
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.12</version>
            <scope>test</scope>
        </dependency>

    </dependencies>
    <build>
        <plugins>
            <!-- java编译插件 -->
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.2</version>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                    <encoding>UTF-8</encoding>
                </configuration>
            </plugin>
        </plugins>
    </build>

2.节点的操作

        例:创建一个永久节点

//创建一个永久节点
    @Test
    public void createNode() throws Exception {
//        System.out.println("Hello World");
        //得到一个客户端
        ExponentialBackoffRetry exponentialBackoffRetry = new ExponentialBackoffRetry(3000,5);

        CuratorFramework curatorFramework = CuratorFrameworkFactory.newClient("192.168.211.102:2181," +
                "192.168.211.103:2181,192.168.211.104:2181",exponentialBackoffRetry);
        //开启服务端
        curatorFramework.start();

        //创建一个永久节点
        curatorFramework.create().creatingParentsIfNeeded().withMode(CreateMode.PERSISTENT).forPath(
                "/bigdata/hello/abc","Hello World".getBytes());

        //关闭服务端
        curatorFramework.close();
    }
//修改一个节点
    @Test
    public void setNode() throws Exception {
        CuratorFramework curatorFramework = CuratorFrameworkFactory.newClient("192.168.211.102:2181," +
                        "192.168.211.103:2181,192.168.211.104:2181",
                new ExponentialBackoffRetry(3000, 8));

        curatorFramework.start();

        curatorFramework.setData().forPath("/test","yalin".getBytes());


        curatorFramework.close();
    }
//获得一个节点
    @Test
    public void getNode() throws Exception {
        CuratorFramework curatorFramework = CuratorFrameworkFactory.newClient("192.168.211.102:2181," +
                        "192.168.211.103:2181,192.168.211.104:2181",
                new ExponentialBackoffRetry(3000, 8));

        curatorFramework.start();

        byte[] bytes = curatorFramework.getData().forPath("/test");
        String node = new String(bytes);
        System.out.println(node);


        curatorFramework.close();
    }

3.节点watch机制

 //zk的watch机制
    @Test
    public void watchNode() throws Exception {
        CuratorFramework curatorFramework = CuratorFrameworkFactory.newClient("192.168.211.102:2181," +
                        "192.168.211.103:2181,192.168.211.104:2181",
                new ExponentialBackoffRetry(5000, 5));

        curatorFramework.start();

       //通过使用treecache来监听节点
        TreeCache treeCache = new TreeCache(curatorFramework, "/test");
        treeCache.getListenable().addListener(new TreeCacheListener() {
            //接口的匿名内部类,并在此方法中实现监听的逻辑,所有的监听事件都会回调这个方法
            @Override
            public void childEvent(CuratorFramework curatorFramework, TreeCacheEvent event) throws Exception {
                ChildData data = event.getData();
                if(data != null){
                    //type封装的事件,如node的修改,新增,删除等事件
                    TreeCacheEvent.Type type = event.getType();
                    switch (type){
                        case NODE_ADDED://新增节点
                            System.out.println("NODE_ADDED : "+ data.getPath() +"  数据:"+ new String(data.getData()));
                            break;
                        case NODE_REMOVED://删除节点
                            System.out.println("NODE_REMOVED : "+ data.getPath() +"  数据:"+ new String(data.getData()));
                            break;
                        case INITIALIZED://初始化操作
                            System.out.println("初始化操作我监听到了");
                            break;
                        case NODE_UPDATED://修改节点
                            System.out.println("NODE_UPDATED : "+ data.getPath() +"  数据:"+ new String(data.getData()));
                            break;
                        default:
                            System.out.println("啥事儿没有");
                            break;

                    }
                }
            }
        });

        //调用start方法开始监听
        treeCache.start();
        Thread.sleep(50000000);

    }

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值