zookeeper集群_分布式集群:Docker实战之Zookeeper

1. 概述

ZooKeeper 是一个开源的分布式协调服务,是 Hadoop,HBase 和其他分布式框架使用的有组织服务的标准。

分布式应用程序可以基于 ZooKeeper 实现诸如数据发布/订阅、负载均衡、命名服务、分布式协调/通知、集群管理、Master 选举、分布式锁和分布式队列等功能。

所有的分布式系统都面临着 CAP 理论的抉择,都需要一致性算法的保障。这里先放上一个简单的总结,用于大家借鉴那些顶级开源软件在分布式上的思路。

分布式组件算法/协议服务Redis ClusterGossipmaster 提供读写,slave 只备份ZookeeperZABLeader 提供读写,Follower 只读,遇到写请求转发给 LeaderKafkaZK 临时节点只有 leader 提供读写服务

2. 应用场景

大致来说,zookeeper 的使用场景如下:

  • 分布式协调
  • 分布式锁
  • 元数据/配置信息管理
  • HA 高可用性
  • 发布/订阅
  • 负载均衡
  • Master 选举

2.1 分布式协调

这个其实是 zookeeper 很经典的一个用法,简单来说,就好比,你 A 系统发送个请求到 mq,然后 B 系统消息消费之后处理了。那 A 系统如何知道 B 系统的处理结果?用 zookeeper 就可以实现分布式系统之间的协调工作。A 系统发送请求之后可以在 zookeeper 上对某个节点的值注册个监听器,一旦 B 系统处理完了就修改 zookeeper 那个节点的值,A 系统立马就可以收到通知,完美解决。

39f2fae19a22b9d92c4aecf76f780d02.png

2.2 分布式锁

举个栗子。对某一个数据连续发出两个修改操作,两台机器同时收到了请求,但是只能一台机器先执行完另外一个机器再执行。那么此时就可以使用 zookeeper 分布式锁,一个机器接收到了请求之后先获取 zookeeper 上的一把分布式锁,就是可以去创建一个 znode,接着执行操作;然后另外一个机器也尝试去创建那个 znode,结果发现自己创建不了,因为被别人创建了,那只能等着,等第一个机器执行完了自己再执行。

241f8c1b844452ae69f3af996cde9396.png

2.3 元数据/配置信息管理

zookeeper 可以用作很多系统的配置信息的管理,比如 kafka、storm 等等很多分布式系统都会选用 zookeeper 来做一些元数据、配置信息的管理,包括 dubbo 注册中心不也支持 zookeeper 么?

c35663307ab1ecda3f99edbe2e701654.png

2.4 HA 高可用性

这个应该是很常见的,比如 hadoop、hdfs、yarn 等很多大数据系统,都选择基于 zookeeper 来开发 HA 高可用机制,就是一个重要进程一般会做主备两个,主进程挂了立马通过 zookeeper 感知到切换到备用进程。

9e2c8f2cc794f35028db1a1c0232f7d5.png

3. Docker 配置

docker-compose-zookeeper-cluster.yml

version: '3.7'networks:  docker_net:    external: trueservices:  zoo1:    image: zookeeper    restart: unless-stopped    hostname: zoo1    container_name: zoo1    ports:      - 2182:2181    environment:      ZOO_MY_ID: 1      ZOO_SERVERS: server.1=0.0.0.0:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=zoo3:2888:3888;2181    volumes:      - ./zookeeper/zoo1/data:/data      - ./zookeeper/zoo1/datalog:/datalog    networks:      - docker_net  zoo2:    image: zookeeper    restart: unless-stopped    hostname: zoo2    container_name: zoo2    ports:      - 2183:2181    environment:      ZOO_MY_ID: 2      ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=0.0.0.0:2888:3888;2181 server.3=zoo3:2888:3888;2181    volumes:      - ./zookeeper/zoo2/data:/data      - ./zookeeper/zoo2/datalog:/datalog    networks:      - docker_net  zoo3:    image: zookeeper    restart: unless-stopped    hostname: zoo3    container_name: zoo3    ports:      - 2184:2181    environment:      ZOO_MY_ID: 3      ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=0.0.0.0:2888:3888;2181    volumes:      - ./zookeeper/zoo3/data:/data      - ./zookeeper/zoo3/datalog:/datalog    networks:      - docker_net

启动集群

docker-compose -f docker-compose-zookeeper-cluster.yml up -d

4. 集群初认识

在 ZAB 算法中,存在 Leader、Follower、Observer 三种角色,现在我们就来认识下它们。

  • 查看 zoo1 角色
➜  docker docker exec -it zoo1 /bin/sh# zkServer.sh statusZooKeeper JMX enabled by defaultUsing config: /conf/zoo.cfgClient port found: 2181. Client address: localhost.Mode: follower

由上结果可知,zoo1 是 follower

  • 查看 zoo2 角色
➜  docker docker exec -it zoo2 /bin/sh# zkServer.sh statusZooKeeper JMX enabled by defaultUsing config: /conf/zoo.cfgClient port found: 2181. Client address: localhost.Mode: follower

由上结果可知,zoo2 是 follower

  • 查看 zoo3 角色
➜  docker docker exec -it zoo3 /bin/sh# zkServer.sh statusZooKeeper JMX enabled by defaultUsing config: /conf/zoo.cfgClient port found: 2181. Client address: localhost.Mode: leader

由上结果可知,zoo3 是 leader。负责集群的读写。

  • 查看 zoo3 选举数据
➜  docker echo srvr | nc localhost 2184Zookeeper version: 3.5.6-c11b7e26bc554b8523dc929761dd28808913f091, built on 10/08/2019 20:18 GMTLatency min/avg/max: 0/0/0Received: 2Sent: 1Connections: 1Outstanding: 0Zxid: 0x100000000Mode: leaderNode count: 5Proposal sizes last/min/max: -1/-1/-1
  • 查看映射数据

如果实践了上述操作的小伙伴一定会发现,映射路径下的文件夹多了好多东西,感兴趣的小伙伴可以打开看一下,了解下 ZAB 的选举算法(没错,里边记录的就是选举相关的数据)。

➜  zookeeper cd zoo1➜  zoo1 tree.├── data│   ├── myid│   └── version-2│       ├── acceptedEpoch│       ├── currentEpoch│       └── snapshot.0└── datalog    └── version-2

注意:留意 currentEpoch 中的数值

5. 选举演练

5.1 模拟 Leader 掉线

➜  zoo1 docker stop zoo3zoo3

查看此时的选举结果(操作同查看角色操作步骤)。可以看到 Zookeeper 集群重新选举结果: zoo2 被选为 leader

5.2 zoo3 节点重新上线

➜  zoo1 docker start zoo3zoo3

查看 zoo3 角色,发现 zoo3 自动作为 follower 加入集群。

注意:查看 currentEpoch 中的数值,存储值为 2,代表经过了 2 次选举。第一次为刚启动时触发选举,第二次为 leader 宕机后重新选举

6. 常用操作

6.1 查看文件目录

笔者本地有安装的 Zookeeper 环境,所以这里用本地的 zkCli 进行测试。

zkCli -server localhost:2182,localhost:2183,localhost:2184Connecting to localhost:2182,localhost:2183,localhost:2184Welcome to ZooKeeper!JLine support is enabledWATCHER::WatchedEvent state:SyncConnected type:None path:null[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 0] ls /[zookeeper]

6.2 创建顺序节点

顺序节点保证 znode 路径将是唯一的。

[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 1] create -s /zk-test 123Created /zk-test0000000000[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 2] ls /[zk-test0000000000, zookeeper]

6.3 创建临时节点

当会话过期或客户端断开连接时,临时节点将被自动删除

[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 3] create -e /zk-temp 123Created /zk-temp[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 4] ls /[zk-test0000000000, zookeeper, zk-temp]

临时节点在客户端会话结束后就会自动删除,下面使用 quit 命令行退出客户端,再次连接后即可验证。

[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 5] quitQuitting...➜  docker zkCli -server localhost:2182,localhost:2183,localhost:2184Connecting to localhost:2182,localhost:2183,localhost:2184Welcome to ZooKeeper!JLine support is enabledWATCHER::WatchedEvent state:SyncConnected type:None path:null[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 0] ls /[zk-test0000000000, zookeeper]

6.4 创建永久节点

[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 1] create /zk-permanent 123Created /zk-permanent[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 2] ls /[zk-permanent, zk-test0000000000, zookeeper]

6.5 读取节点

[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 3] get /cZxid = 0x0ctime = Thu Jan 01 08:00:00 CST 1970mZxid = 0x0mtime = Thu Jan 01 08:00:00 CST 1970pZxid = 0x400000008cversion = 3dataVersion = 0aclVersion = 0ephemeralOwner = 0x0dataLength = 0numChildren = 3[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 4] ls2 /[zk-permanent, zk-test0000000000, zookeeper]cZxid = 0x0ctime = Thu Jan 01 08:00:00 CST 1970mZxid = 0x0mtime = Thu Jan 01 08:00:00 CST 1970pZxid = 0x400000008cversion = 3dataVersion = 0aclVersion = 0ephemeralOwner = 0x0dataLength = 0numChildren = 3

使用 ls2 命令来查看某个目录包含的所有文件,与 ls 不同的是它查看到 time、version 等信息

6.6 更新节点

[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 5] set /zk-permanent 456cZxid = 0x400000008ctime = Tue Mar 03 21:35:20 CST 2020mZxid = 0x400000009mtime = Tue Mar 03 21:40:11 CST 2020pZxid = 0x400000008cversion = 0dataVersion = 1aclVersion = 0ephemeralOwner = 0x0dataLength = 3numChildren = 0

6.7 检查状态

[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 6] stat /zk-permanentcZxid = 0x400000008ctime = Tue Mar 03 21:35:20 CST 2020mZxid = 0x400000009mtime = Tue Mar 03 21:40:11 CST 2020pZxid = 0x400000008cversion = 0dataVersion = 1aclVersion = 0ephemeralOwner = 0x0dataLength = 3numChildren = 0

6.8 删除节点

[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 7] rmr /zk-permanent[zk: localhost:2182,localhost:2183,localhost:2184(CONNECTED) 8] ls /[zk-test0000000000, zookeeper]
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值