1. 伪集群模式
多个 zookeeper 实例部署到同一台 server 上。
此种方式只能扩展 zk 性能,但并不是真正意义上的分布式,因为当这台 server 宕机后,zk 集群中的便不可用。
创建docker-compose.yml 文件,文件内容如下:
version: '3.1'
services:
zoo1:
image: zookeeper
restart: always
hostname: zoo1
networks:
- zoo-net
ports:
- 2181:2181
volumes:
- zoo1-data:/data
- zoo1-log:/datalog
environment:
ZOO_MY_ID: 1
ZOO_SERVERS: server.1=0.0.0.0:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=zoo3:2888:3888;2181
ZOO_4LW_COMMANDS_WHITELIST: "*"
zoo2:
image: zookeeper
restart: always
hostname: zoo2
networks:
- zoo-net
ports:
- 2182:2181
environment:
ZOO_MY_ID: 2
ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=0.0.0.0:2888:3888;2181 server.3=zoo3:2888:3888;2181
ZOO_4LW_COMMANDS_WHITELIST: "*"
zoo3:
image: zookeeper
restart: always
hostname: zoo3
networks:
- zoo-net
ports:
- 2183:2181
environment:
ZOO_MY_ID: 3
ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=0.0.0.0:2888:3888;2181
ZOO_4LW_COMMANDS_WHITELIST: "*"
volumes:
zoo1-data:
external: false
zoo1-log:
external: false
networks:
zoo-net:
这个配置文件会告诉 Docker 分别运行三个 zookeeper 镜像, 并分别将本地的 2181, 2182, 2183 端口绑定到对应的容器的2181端口上. ZOO_MY_ID 和 ZOO_SERVERS 是搭建 ZK 集群需要设置的两个环境变量, 其中 ZOO_MY_ID 表示 ZK 服务的 id, 它是1-255 之间的整数, 必须在集群中唯一. ZOO_SERVERS 是ZK 集群的主机列表.
接着我们在 docker-compose.yml 当前目录下运行:
docker-compose up -d
即可启动 ZK 集群了. 执行上述命令成功后, 接着在另一个终端中运行 docker-compose ps 命令可以查看启动的 ZK 容器:
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
b519dd505460 zookeeper "/docker-entrypoint.…" 22 hours ago Up 4 hours 2888/tcp, 3888/tcp, 8080/tcp, 0.0.0.0:2182->2181/tcp zkcluster_zoo2_1
fa8bbfcee6fe zookeeper "/docker-entrypoint.…" 22 hours ago Up 4 hours 2888/tcp, 3888/tcp, 0.0.0.0:2181->2181/tcp, 8080/tcp zkcluster_zoo1_1
48710c6f6b59 zookeeper "/docker-entrypoint.…" 22 hours ago Up 4 hours 2888/tcp, 3888/tcp, 8080/tcp, 0.0.0.0:2183->2181/tcp zkcluster_zoo3_1
通过本地主机连接 ZK 集群
因为我们分别将 zoo1, zoo2, zoo3 的 2181 端口映射到了 本地主机的2181, 2182, 2183 端口上, 因此我们使用如下命令即可连接 ZK 集群了:
zkCli.sh -server localhost:2181,localhost:2182,localhost:2183
查看集群
我们可以通过 nc 命令连接到指定的 ZK 服务器, 然后发送 stat 可以查看 ZK 服务的状态, 例如:
bogon:~ xiangpeng$ echo stat | nc 127.0.0.1 2181
Zookeeper version: 3.7.0-e3704b390a6697bfdf4b0bef79e3da7a4f6bac4b, built on 2021-03-17 09:46 UTC
Clients:
/172.18.0.1:57898[1](queued=0,recved=211,sent=211)
/172.18.0.1:58720[0](queued=0,recved=1,sent=0)
/172.18.0.1:55222[1](queued=0,recved=255,sent=255)
/172.18.0.1:57900[1](queued=0,recved=1765,sent=1765)
Latency min/avg/max: 0/3.6941/61
Received: 2277
Sent: 2276
Connections: 4
Outstanding: 0
Zxid: 0x3000019ae
Mode: follower
Node count: 830
bogon:~ xiangpeng$ echo stat | nc 127.0.0.1 2182
Zookeeper version: 3.7.0-e3704b390a6697bfdf4b0bef79e3da7a4f6bac4b, built on 2021-03-17 09:46 UTC
Clients:
/172.18.0.1:60052[1](queued=0,recved=228,sent=228)
/172.18.0.1:62688[0](queued=0,recved=1,sent=0)
/172.18.0.1:60960[1](queued=0,recved=222,sent=222)
/172.18.0.1:59192[1](queued=0,recved=595,sent=595)
Latency min/avg/max: 0/4.803/283
Received: 2560
Sent: 2559
Connections: 4
Outstanding: 0
Zxid: 0x3000019ae
Mode: follower
Node count: 830
bogon:~ xiangpeng$ echo stat | nc 127.0.0.1 2183
Zookeeper version: 3.7.0-e3704b390a6697bfdf4b0bef79e3da7a4f6bac4b, built on 2021-03-17 09:46 UTC
Clients:
/172.18.0.1:61954[1](queued=0,recved=1089,sent=1090)
/172.18.0.1:62862[1](queued=0,recved=1023,sent=1023)
/172.18.0.1:64590[0](queued=0,recved=1,sent=0)
Latency min/avg/max: 0/6.4061/699
Received: 6302
Sent: 6302
Connections: 3
Outstanding: 0
Zxid: 0x3000019ae
Mode: leader
Node count: 830
Proposal sizes last/min/max: 48/36/43065
通过上面的输出, 我们可以看到, zoo1, zoo2 都是 follower, 而 zoo3 是 leader, 因此证明了我们的 ZK 集群确实是搭建起来了.