Zookeeper

目录

第一章、Zookeeper入门 

1.1、概述

1.2、特点 

1.3、数据结构

1.4、应用场景

2、选举机制(面试重点)

3、客户端 命令行 操作

3.1、命令行基本语法

3.1.1、znode节点数据信息

 3.2、节点类型(持久/短暂/有序号)

3.3、监听器原理

3.3.1 节点的删除与查看 看

3.4、客户端API操作

3.4.1 IDEA 环境 搭建

3.4.2、创建Zookeeper客户端

3.4.3、创建子节点

3.4.4、获取子节点并监听节点

3.4.5、判断Znode是否存在

3.5、客户端向服务端写数据流程

4、服务器动态上下线监听案例 

4.1、需求

4.2、需求分析

4.3、具体实现

4.4、测试

 5、ZooKeeper 分布式锁案例

5.1、原生Zookeeper实现 

6、企业面试真题

6.1、选举机制

6.2、生产集群至少安装多少zk合适

6.3、常用命令


第一章、Zookeeper入门 

1.1、概述

Zookeeper 是一个开源的分布式的,为分布式框架提供协调服务的 Apache 项目。

 

1.2、特点 

1)Zookeeper:一个领导者(Leader),多个跟随者(Follower)组成的集群。
2)集群中只要有 半数以上节点存活,Zookeeper集群就能正常服务。所以Zookeeper适合安装奇数台服务器。
3)全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
4)更新请求顺序执行,来自同一个Client的更新请求按其发送顺序依次执行。
5)数据更新原子性,一次数据更新要么成功,要么失败。
6)实时性,在一定时间范围内,Client能读到最新数据。
 

1.3、数据结构

ZooKeeper 数据模型的结构与 Unix 文件系统很类似,整体上可以看作是一棵树,每个节点称做一个 ZNode。每一个 ZNode 默认能够存储 1MB 的数据,每个 ZNode 都可以通过其路径唯一标识。

1.4、应用场景

提供的服务包括:统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下线、软负载均衡等。

 

2、选举机制(面试重点)

3、客户端 命令行 操作

3.1、命令行基本语法

1) 启动客户端

[atguigu@hadoop102 zookeeper-3.5.7]$ bin/zkCli.sh -server
hadoop102:2181

 2) 显示所有操作命令

[zk: hadoop102:2181(CONNECTED) 1] help

3.1.1、znode节点数据信息

1)查看当前znode 中所包含的内容

[zk: hadoop102:2181(CONNECTED) 0] ls /

2)查看当前节点详细 数据

[zk: hadoop102:2181(CONNECTED) 5] ls -s /

 3.2、节点类型(持久/短暂/有序号)

 

 1) 分别创建2 个普通节点 (永久节点 + 不带序号)

注意:创建节点时,要赋值
2) 获得节点的值

[zk: localhost:2181(CONNECTED) 5] get -s /sanguo diaochan

3) 创建带序号的节点 (永久节点 + 带序号)
(1)先创建一个普通的根节点/sanguo/weiguo

(2)创建带序号的节点 

 

如果原来没有序号节点,序号从 0 开始依次递增。如果原节点下已有 2 个节点,则再排序时从 2 开始,以此类推。
4) 创建短暂节点 (短暂节点 + 不带序号 or 带序号)
(1)创建短暂的不带序号的节点
(2)创建短暂的带序号的节点 

(3)在当前客户端是能查看到的 

(4)退出当前客户端然后再重启客户端 

[zk: localhost:2181(CONNECTED) 12] quit
[atguigu@hadoop104 zookeeper-3.5.7]$ bin/zkCli.sh

(5)再次查看根目录下短暂节点已经删除

5) 修改节点数据值

3.3、监听器原理

 客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、节点删除、子目录节点增加删除)时,ZooKeeper 会通知客户端。监听机制保证 ZooKeeper 保存的任何的数据的任何改变都能快速的响应到监听了该节点的应用程序。

1) 节点的值变化监听
(1)在 hadoop104 主机上注册监听/sanguo 节点数据变化

[zk: localhost:2181(CONNECTED) 26] get -w /sanguo

(2)在 hadoop103 主机上修改/sanguo 节点的数据

[zk: localhost:2181(CONNECTED) 1] set /sanguo "xisi"

(3)观察 hadoop104 主机收到数据变化的监听
WATCHER::
WatchedEvent state:SyncConnected type:NodeDataChanged
path:/sanguo
注意:在hadoop103再多次修改/sanguo的值,hadoop104上不会再收到监听。因为注册一次,只能监听一次。想再次监听,需要再次注册。
2) 节点的子节点变化监听(路径变化)
(1)在 hadoop104 主机上注册监听/sanguo 节点的子节点变化

[zk: localhost:2181(CONNECTED) 1] ls -w /sanguo
[shuguo, weiguo]

(2)在 hadoop103 主机/sanguo 节点上创建子节点

[zk: localhost:2181(CONNECTED) 2] create /sanguo/jin "simayi"
Created /sanguo/jin

(3)观察 hadoop104 主机收到子节点变化的监听
WATCHER::
WatchedEvent state:SyncConnected type:NodeChildrenChanged
path:/sanguo
注意:节点的路径变化,也是注册一次,生效一次。想多次生效,就需要多次注册。


3.3.1 节点的删除与查看 看

1) 删除节点

[zk: localhost:2181(CONNECTED) 4] delete /sanguo/jin

2) 递归删除节点

[zk: localhost:2181(CONNECTED) 15] deleteall /sanguo/shuguo

3) 查看节点状态

[zk: localhost:2181(CONNECTED) 17] stat /sanguo

3.4、客户端API操作

前提:保证 hadoop102、hadoop103、hadoop104 服务器上 Zookeeper 集群服务端启动。


3.4.1 IDEA 环境 搭建

1) 创建一个 工程:zookeeper
2) 添加pom 文件

<dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.13</version>

        </dependency>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-core</artifactId>
            <version>2.14.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.zookeeper</groupId>
            <artifactId>zookeeper</artifactId>
            <version>3.5.7</version>
        </dependency>

3) 拷贝log4j.properties 文件到项目根目录
需要在项目的 src/main/resources 目录下,新建一个文件,命名为“log4j.properties”,在文件中填入。

log4j.rootLogger=INFO, stdout  
log4j.appender.stdout=org.apache.log4j.ConsoleAppender  
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout  
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n  
log4j.appender.logfile=org.apache.log4j.FileAppender  
log4j.appender.logfile.File=target/spring.log  
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout  
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n 

4 )创建包名com.rg.zk
5 )创建类名称zkClient

3.4.2、创建Zookeeper客户端

public class zkClient {

    //注意逗号后面不能有空格.
    private String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";
    private int sessionTimeout = 5000;
    private ZooKeeper zkClient;

    @Before
    public void init() throws IOException {
        /**
         * connectString:要连接的Zookeeper的客户端.
         * sessionTimeout:超时时间
         * Watcher:监听器
         */
        zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
            @Override
            public void process(WatchedEvent watchedEvent) {
                System.out.println("--------------------------------");
                //这里意思就是你只要执行zk的api指令,就会走监听器重写的方法,最后加一个延迟,主线程睡眠但是监听器还在
                //本质:是让监听器线程一直存在着...
                //再次启动监听...
                List <String> children = null;
                try {
                    children = zkClient.getChildren("/", true);
                } catch (KeeperException e) {
                    e.printStackTrace();
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
                for (String child : children) {
                    System.out.println(child);
                }
                System.out.println("--------------------------------");

            }
        });
    }

  } 

3.4.3、创建子节点

 //创建节点
    @Test
    public void create() throws KeeperException, InterruptedException {
        /**
         * 参数 1:要创建的节点的路径;
         * 参数 2:节点数据 ;
         * 参数 3:节点权限 ;
         * 参数 4:节点的类型
         */
        String nodeCreated = zkClient.create("/atguigu", "ss.avi".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
    }

3.4.4、获取子节点并监听节点

@Test
    public void getChildRen() throws KeeperException, InterruptedException {
        //true:使用init中创建的监听器. 每次出现变化,将重新调用监听器中的 方法.  也可以自定一个监听器.
        //监听某个路径的节点变化情况
        List <String> children = zkClient.getChildren("/", true);
        for (String child : children) {
            System.out.println(child);
        }
        //延时 让其一直监听
        Thread.sleep(Long.MAX_VALUE);
    }

1)在 IDEA 控制台上看到如下节点:

zookeeper
sanguo
atguigu

(2)在 hadoop102 的客户端上创建再创建一个节点/atguigu1,观察 IDEA 控制台

[zk: localhost:2181(CONNECTED) 3] create /atguigu1 "atguigu1"

(3)在 hadoop102 的客户端上删除节点/atguigu1,观察 IDEA 控制台

[zk: localhost:2181(CONNECTED) 4] delete /atguigu1

3.4.5、判断Znode是否存在

@Test
    public void exist() throws KeeperException, InterruptedException {
        Stat stat = zkClient.exists("/atguigu", false);
        System.out.println(stat==null ? "not exist ":"exist");
    }

3.5、客户端向服务端写数据流程

4、服务器动态上下线监听案例 

4.1、需求

某分布式系统中,主节点可以有多台,可以动态上下线,任意一台客户端都能实时感知到主节点服务器的上下线。

4.2、需求分析

注:服务器上线的过程就是Zookeeper集群创建节点的过程.
服务器和客户端相对于Zookeeper都是 “客户端”,只不过服务器是创建节点的操作,客户端是监听节点的操作(一旦那个节点不存在了,下次就不去访问这个节点了) 

4.3、具体实现

(1)先在集群上创建/servers 节点

[zk: localhost:2181(CONNECTED) 10] create /servers "servers"
Created /servers

(2)在 Idea 中创建包名:com.rg.case1
(3)服务器端向 Zookeeper 注册代码

public class DistributeServer {

    private String connectString  = "hadoop102:2181,hadoop103:2181,hadoop104:2181";
    private int sessionTimeout = 2000;
    private ZooKeeper zk;

    public static void main(String[] args) throws IOException, KeeperException, InterruptedException {
        DistributeServer server = new DistributeServer();
        //1.获取zk连接 ==>连接zk客户端.
        server.getConnect();

        //2.注册服务器到zk集群  在/servers下创建节点
        server.regist(args[0]);

        //3.启动业务逻辑(睡觉)
        server.business();


    }

    private void business() throws InterruptedException {
        Thread.sleep(Long.MAX_VALUE);
    }

    private void regist(String hostname) throws KeeperException, InterruptedException {
        // 节点类型应该是 临时的(上线创建节点,下线节点消失),有序的(可以得知服务器上线的顺序)
        String create = zk.create("/servers/" + hostname, hostname.getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);
        System.out.println(hostname+"is online");
    }

    private void getConnect() throws IOException {
        //ctrl+alt+f
        zk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
            @Override
            public void process(WatchedEvent event) {

            }
        });
    }

}

(4)客户端代码

public class DistributeClient {
    private String connectString  = "hadoop102:2181,hadoop103:2181,hadoop104:2181";
    private int sessionTimeout = 2000;
    private ZooKeeper zk;
    public static void main(String[] args) throws IOException, InterruptedException, KeeperException {
        DistributeClient client = new DistributeClient();
        
        //1.获取zk连接
        client.getConnect();
        
        //2.监听 /servers/下面子节点的增加和删除==>监听服务器的上线下线情况
        client.getServerList();
        
        //3.业务逻辑(睡觉)
        client.business();

    }

    private void getServerList() throws KeeperException, InterruptedException {
        //进行注册监听器..
        List <String> children = zk.getChildren("/servers", true);
        //存放 /servers下的节点
        List <String> servers = new ArrayList <>();
        for (String child : children) {
            //获取该节点上的内容 不适用监听器
            byte[] data = zk.getData("/servers/" + child, false, null);

            servers.add(new String(data));
        }
        System.out.println(servers);
    }

    private void business() throws InterruptedException {
        Thread.sleep(Long.MAX_VALUE);
    }

    private void getConnect() throws IOException {
        //ctrl+alt+f
        zk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
            @Override
            public void process(WatchedEvent event) {
                try {
                    //注册一次监听一次..
                    getServerList();
                } catch (KeeperException e) {
                    e.printStackTrace();
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
            }
        });
    }
}

4.4、测试

1)在 Linux 命令行上操作增加减少服务器
(1)启动 DistributeClient 客户端
(2)在 hadoop102 上 zk 的客户端/servers 目录上创建临时带序号节点

[zk: localhost:2181(CONNECTED) 1] create -e -s
/servers/hadoop102 "hadoop102"
[zk: localhost:2181(CONNECTED) 2] create -e -s
/servers/hadoop103 "hadoop103"

(3)观察 Idea 控制台变化
[hadoop102, hadoop103]
(4)执行删除操作

[zk: localhost:2181(CONNECTED) 8] delete
/servers/hadoop1020000000000

(5)观察 Idea 控制台变化
[hadoop103]

2)在 Idea 上操作增加减少服务器
(1)启动 DistributeClient 客户端(如果已经启动过,不需要重启)
(2)启动 DistributeServer 服务

①点击 Edit Configurations…

②在弹出的窗口中(Program arguments)输入想启动的主机,例如,hadoop102

 ③ 回 到 DistributeServer 的 main 方 法 , 右 键 , 在 弹 出 的 窗 口 中 点 击 Run“DistributeServer.main()”

④观察 DistributeServer 控制台,提示 hadoop102 is working
⑤观察 DistributeClient 控制台,提示 hadoop102 已经上线

 5、ZooKeeper 分布式锁案例

什么叫做分布式锁呢?
比如说"进程 1"在使用该资源的时候,会先去获得锁,"进程 1"获得锁以后会对该资源保持独占,这样其他进程就无法访问该资源,"进程 1"用完该资源以后就将锁释放掉,让其他进程来获得锁,那么通过这个锁机制,我们就能保证了分布式系统中多个进程能够有序的访问该临界资源。那么我们把这个分布式环境下的这个锁叫作分布式锁。

5.1、原生Zookeeper实现 

1)分布式锁实现

/**
 * CountDownLatch典型用法:1、某一线程在开始运行前等待n个线程执行完毕。将CountDownLatch的计数器初始化为new CountDownLatch(n),
 * 每当一个任务线程执行完毕,就将计数器减1 .countdownLatch.countDown(),当计数器的值变为0时,在CountDownLatch上await()的线程就会被唤醒。
 * 一个典型应用场景就是启动一个服务时,主线程需要等待多个组件加载完毕,之后再继续执行
 *
 */

public class DistributedLock {
    private final String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";
    private final int sessionTimeout = 2000;
    private final ZooKeeper zk;

    //CountDownLatch 用来等待 连接成功
    private CountDownLatch connectLatch = new CountDownLatch(1);
    private CountDownLatch waitLatch = new CountDownLatch(1);
    private String currentMode;
    private String waitPath;

    //分布式锁的初始化
    public DistributedLock() throws IOException, InterruptedException, KeeperException {
        //获取连接
         zk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
            @Override
            public void process(WatchedEvent event) {
                //connection 如果连接上zk 可以释放
                // 如果监听的状态 是 连接上的状态,则释放connectLatch,继续往下执行.
                if(event.getState()==Event.KeeperState.SyncConnected){
                    connectLatch.countDown();
                }

                //waitLatch 需要释放
                //如果监听到了 监听路径的节点删除操作. 并且该操作的路径是当前节点的上一个节点,则释放waitLatch
                if(event.getType()==Event.EventType.NodeDeleted && event.getPath().equals(waitPath)){
                    waitLatch.countDown();
                }


            }
        });
         //等待zk正常连接后,往下走程序
        connectLatch.await();

        //判断根节点 /locks 是否存在
        Stat stat = zk.exists("/locks", false);

        if(stat==null){
            //创建下一个根节点
            zk.create("/locks", "locks".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
        }

    }

    //对zk加锁
    public void zklock() throws KeeperException, InterruptedException {
        //创建对应的临时带序号节点(目的是对资源进行操作.)
        currentMode = zk.create("/locks/" + "seq-", null, ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);

        //判断创建的节点是否是最小的序号节点,如果是获取到锁; 如果不是,监听序号前一个节点.
        List <String> children = zk.getChildren("/locks", false);

        //如果children只有一个值, 那就直接获取锁;  如果有多个节点,则需要判断谁最小.
        if(children.size()==1){
            return;
        }else{
            Collections.sort(children);
            //获取节点名称 seq-000000
            /**
             * substring(int biginIndex)
             * substring(int biginIndex,int endIndex)
             */
            String thisNode = currentMode.substring("/locks/".length());

            //通过seq-000000获取该节点在children集合的位置
            int index = children.indexOf(thisNode);

            //判断
            if(index==-1){
                System.out.println("数据异常...");
            }else if(index == 0){
                //如果当前的是序号最小的节点,则直接获取锁
                return;
            }else{//当前的节点并不是序号最小的
                //需要监听它前一个结点的变化
                waitPath = "/locks/" + children.get(index - 1);
                zk.getData(waitPath,true,null);

                //等待前一个节点操作完成,监听结束,本节点再获取锁.
                waitLatch.await();

                return;
            }

        }
    }

    //解锁
    public void unZkLock() throws KeeperException, InterruptedException {
        // 操作处理完毕要解锁----删除当前节点.
        zk.delete(this.currentMode,-1);
    }

}

2)分布式锁 测试

public class DistributedLockTest {
    public static void main(String[] args) throws InterruptedException, IOException, KeeperException {
        final DistributedLock lock1 = new DistributedLock();
        final DistributedLock lock2 = new DistributedLock();

        new Thread(new Runnable() {
            @Override
            public void run() {
                try {
                    lock1.zklock();
                    System.out.println("线程1启动, 获取到锁");
                    System.out.println("线程1使用资源中...");
                    Thread.sleep(5*1000);
                    lock1.unZkLock();
                    System.out.println("线程1使用资源完毕,释放锁");
                } catch (KeeperException e) {
                    e.printStackTrace();
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }

            }
        }).start();

        new Thread(new Runnable() {
            @Override
            public void run() {
                try {
                    lock2.zklock();
                    System.out.println("线程2启动, 获取到锁");
                    System.out.println("线程2使用资源中...");
                    Thread.sleep(5*1000);
                    lock2.unZkLock();
                    System.out.println("线程2使用资源完毕,释放锁");
                } catch (KeeperException e) {
                    e.printStackTrace();
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }

            }
        }).start();
    }
}

(1)创建两个线程
(2)观察控制台变化:

 5.2、Curator 框架实现分布式锁案例

1) 原生的 Java API 开发存在的问题
(1)会话连接是异步的,需要自己去处理。比如使用 CountDownLatch
(2)Watch 需要重复注册,不然就不能生效
(3)开发的复杂性还是比较高的
(4)不支持多节点删除和创建。需要自己去递归
2) Curator 是一个专门解决分布式锁的框架,解决了原生Java API 开发分布式遇到的问题。
详情请查看官方文档:Apache Curator –
3 )Curator 案例实操
(1)添加依赖

<dependency>
            <groupId>org.apache.curator</groupId>
            <artifactId>curator-framework</artifactId>
            <version>4.3.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.curator</groupId>
            <artifactId>curator-recipes</artifactId>
            <version>4.3.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.curator</groupId>
            <artifactId>curator-client</artifactId>
            <version>4.3.0</version>
        </dependency>

2)代码实现

public class CuratorLockTest {


    public static void main(String[] args) {
        //创建分布式锁1
        InterProcessMutex lock1 = new InterProcessMutex(getCuratorFramework(),"/locks");
        InterProcessMutex lock2 = new InterProcessMutex(getCuratorFramework(),"/locks");

        new Thread(new Runnable() {
            @Override
            public void run() {
                try {
                    lock1.acquire();//获取锁
                    System.out.println("线程1获取到锁");

                    lock1.acquire();
                    System.out.println("线程1再次获取到锁");
                    Thread.sleep(5*1000);
                    lock1.release();//释放锁
                    System.out.println("线程1释放锁..");
                    lock1.release();
                    System.out.println("线程1再次释放锁...");
                } catch (Exception e) {
                    e.printStackTrace();
                }

            }
        }).start();

        new Thread(new Runnable() {
            @Override
            public void run() {
                try {
                    lock2.acquire();//获取锁
                    System.out.println("线程2获取到锁");

                    lock2.acquire();
                    System.out.println("线程2再次获取到锁");
                    Thread.sleep(5*1000);
                    lock2.release();//释放锁
                    System.out.println("线程2释放锁..");
                    lock2.release();
                    System.out.println("线程2再次释放锁...");
                } catch (Exception e) {
                    e.printStackTrace();
                }

            }
        }).start();
    }

    private static CuratorFramework getCuratorFramework() {
        ExponentialBackoffRetry policy = new ExponentialBackoffRetry(3000, 3);
        CuratorFramework client = CuratorFrameworkFactory.builder().connectString("hadoop102:2181,hadoop103:2181,hadoop104:2181")
                .connectionTimeoutMs(2000) //设置连接超时时间
                .sessionTimeoutMs(2000)
                .retryPolicy(policy).build(); //尝试策略

        //启动客户端
        client.start();

        System.out.println("Zookeeper启动成功..");
        return client;

    }
}

6、企业面试真题

6.1、选举机制

半数机制,超过半数的投票通过,即通过。
(1)第一次启动选举规则:
投票过半数时,服务器 id 大的胜出
(2)第二次启动选举规则:
①EPOCH 大的直接胜出
②EPOCH 相同,事务 id 大的胜出
③事务 id 相同,服务器 id 大的胜出

6.2、生产集群至少安装多少zk合适

安装奇数台。
生产经验:
⚫ 10 台服务器:3 台 zk;
⚫ 20 台服务器:5 台 zk;
⚫ 100 台服务器:11 台 zk;
⚫ 200 台服务器:11 台 zk
服务器台数多:好处,提高可靠性;坏处:提高通信延时

6.3、常用命令

ls、get、create、delete

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值