Zookeeper 介绍
1)是什么
分布式应用管理中心,用来管理分布式项目的。
2)功能
- 可以用于管理分布式应用程序的配置文件信息
比如一个分布式应用,所有的模块都需要连接数据库,那么对于连接数据库所需要的配置信息,就可以统一交给 Zookeeper 来管理,这样当数据库的配置需要变更的时候,只改 Zookeeper 中的就可以了,否则还需要每个模块都改一遍,而且 Zookeeper 改完之后,每个模块还不需要重启。 - 在分布式应用程序中管理共享数据实现分布式锁
还是上面那个例子,比如所有的模块都需要对同一张表进行增删改操作,这样当并发量大的时候,可能会造成死锁问题,而交给 Zookeeper 管理之后,就可以避免这样的问题了。 - 能够唯一命名,可以产生唯一主键
可以为数据产生唯一的主键并且不重复 - 自身能够存储一定数据,并能实现集群操作
比如 Dubbo 就是一个例子,它可以将生产者和消费者注册进来
Zookeeper 单机版安装
主要分为四个步骤:
1)将zoo_sample.cfg 改名为 zoo.cfg
2)修改clientPort端口
3)设置zookeeper文件存储的目录
4)设置日志文件存储目录
注意:先创建好 data目录 和 logs 目录
至此,单机版的 Zookeeper 就安装好了
Zookeeper 命令
进入到 bin 目录
1)启动
./zkServer.sh start
2)停止
./zkServer.sh stop
3)查看状态
./zkServer.sh status
Zookeeper 集群
1)准备
① 安装JDK 【此步骤省略】。
② Zookeeper压缩包上传到服务器
③ 将Zookeeper解压 ,创建data目录 ,将 conf下zoo_sample.cfg 文件改名为 zoo.cfg
④ 建立/usr/local/zookeeper-cluster目录,将解压后的Zookeeper复制到以下三个目录
/usr/local/zookeeper-cluster/zookeeper-1
/usr/local/zookeeper-cluster/zookeeper-2
/usr/local/zookeeper-cluster/zookeeper-3
命令如下:
[root@localhost ~]# mkdir /usr/local/zookeeper-cluster
[root@localhost ~]# cp -r zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-1
[root@localhost ~]# cp -r zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-2
[root@localhost ~]# cp -r zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-3
⑤ 修改每个 Zookeeper 的 zoo.cfg 中的 dataDir 和 clientPort
修改/usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
clientPort=2181
dataDir=/usr/local/zookeeper-cluster/zookeeper-1/data
修改/usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
clientPort=2182
dataDir=/usr/local/zookeeper-cluster/zookeeper-2/data
修改/usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg
clientPort=2183
dataDir=/usr/local/zookeeper-cluster/zookeeper-3/data
2)配置集群
在每一个zookeeper 的 zoo.cfg 配置集群服务器IP列表。
server.1=192.168.25.140:2881:3881
server.2=192.168.25.140:2882:3882
server.3=192.168.25.140:2883:3883
server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口
3)将 3 个 Zookeeper 全部启动
项目中使用 Zookeeper 集群
生产者:
消费者:
模拟集群异常
(1)首先我们先测试如果是从服务器挂掉,会怎么样,把3号服务器停掉,观察1号和2号,发现状态并没有变化
由此得出结论,3个节点的集群,从服务器挂掉,集群正常
(2)我们再把1号服务器(从服务器)也停掉,查看2号(主服务器)的状态,发现已经停止运行了。
由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也无法运行。因为可运行的机器没有超过集群总数量的半数。
(3)我们再次把1号服务器启动起来,发现2号服务器又开始正常工作了。而且依然是领导者。
(4)我们把3号服务器也启动起来,把2号服务器停掉,停掉后观察1号和3号的状态。
发现新的leader产生了~
由此我们得出结论,当集群中的主服务器挂了,集群中的其他服务器会自动进行选举状态,然后产生新得leader。
(5)我们再次测试,当我们把2号服务器重新启动起来,启动后,会发生什么?2号服务器会再次成为新的领导吗?我们看结果
我们会发现,2号服务器启动后依然是跟随者(从服务器),3号服务器依然是领导者(主服务器),没有撼动3号服务器的领导地位。
由此我们得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。