zookeeper安装部署文档

1.Zookeeper

1.1 Zookeeper集群简介

1.1.1为什么搭建Zookeeper集群

大部分分布式应用需要一个主控、协调器或者控制器来管理物理分布的子进程。目前,大多数都要开发私有的协调程序,缺乏一个通用机制,协调程序的反复编写浪费,且难以形成通用、伸缩性好的协调器,zookeeper提供通用的分布式锁服务,用以协调分布式应用。所以说zookeeper是分布式应用的协作服务。

zookeeper作为注册中心,服务器和客户端都要访问,如果有大量的并发,肯定会有等待。所以可以通过zookeeper集群解决。

下面是zookeeper集群部署结构图:

 

1.1.2了解Leader选举

Zookeeper的启动过程中leader选举是非常重要而且最复杂的一个环节。那么什么是leader选举呢?zookeeper为什么需要leader选举呢?zookeeper的leader选举的过程又是什么样子的?

首先我们来看看什么是leader选举。其实这个很好理解,leader选举就像总统选举一样,每人一票,获得多数票的人就当选为总统了。在zookeeper集群中也是一样,每个节点都会投票,如果某个节点获得超过半数以上的节点的投票,则该节点就是leader节点了。

以一个简单的例子来说明整个选举的过程. 
         假设有五台服务器组成的zookeeper集群,它们的id从1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的.假设这些服务器依序启动,来看看会发生什么 。
         1) 服务器1启动,此时只有它一台服务器启动了,它发出去的报没有任何响应,所以它的选举状态一直是LOOKING状态  
         2) 服务器2启动,它与最开始启动的服务器1进行通信,互相交换自己的选举结果,由于两者都没有历史数据,所以id值较大的服务器2胜出,但是由于没有达到超过半数以上的服务器都同意选举它(这个例子中的半数以上是3),所以服务器1,2还是继续保持LOOKING状态.  
         3) 服务器3启动,根据前面的理论分析,服务器3成为服务器1,2,3中的老大,而与上面不同的是,此时有三台服务器选举了它,所以它成为了这次选举的leader.  
         4) 服务器4启动,根据前面的分析,理论上服务器4应该是服务器1,2,3,4中最大的,但是由于前面已经有半数以上的服务器选举了服务器3,所以它只能接收当小弟的命了.  
         5) 服务器5启动,同4一样,当小弟

2.2搭建Zookeeper集群

2.2.1搭建要求(真实业务情况部署)

准备三台服务器,如:192.168.1.82,192.168.1.84.192.168.1.32

为了操作方面三台机器都配置下host域名映射在host文件中添加如下配置

192.168.1.82 zookeeper1
192.168.1.84 zookeeper2
192.168.1.32 zookeeper3

 

 

2.2.2准备工作

1.先部署一台服务器。

(1)安装JDK 

     a.下载jdk1.8版本(最好是1.7以上,我这里以1.8为案例)

     b.解压到/usr/local目录 tar –zxvf  jdk-8u171-linux-x64.tar.gz –C /usr/local

     c.配置环境变量 在 /etc/profile文件下 加入如下配置

       export JAVA_HOME=/usr/local/jdk1.8.0_171

export PATH=$JAVA_HOME/bin:$PATH

     d.让环境变量生效 source /etc/profile

     e.将解压好的配置复制到另外两台服务器,复制完成后,按上面操作也配置下环境变量

         scp  -r /usr/local/jdk1.8.0_171 zookeeper2:/usr/local

scp  -r /usr/local/jdk1.8.0_171 zookeeper2:/usr/local

     f.用java –version 查看jdk版本 判断是否jdk已成功安装完成

 

(2)Zookeeper安装

     a.下载zookeeper版本zookeeper-3.3.6.tar.gz(这里以3.3.6版本为案例)

     b.解压到/usr/local目录 tar –zxvf zookeeper-3.3.6.tar.gz  -C  /usr/local

     c.进入zookeeper目录创建data目录

 
     d.进入conf目录 重命名zoo_sample.cfg 为zoo.cfg,执行  mv zoo_sample.cfg  zoo.cfg

     e.编辑zoo.cfg文件 修改 zookeeper的数据目录为你刚创建的data目录如图所示

 

     f.根据实际去情况可随意修改客户端端口,如果是伪集群(端口必须修改),如三台在同一服务器可不修改

     g.配置下环境变量(方便对服务的操作)在 /etc/profile文件中 添加如下配置,配置完成后记得执行(source /etc/profile )命令 让环境变量生效

      export ZK_HOME=/usr/local/zookeeper-3.3.6

export PATH=$ZK_HOME/bin:$PATH

h.将解压后的zookeeper复制到另外两台机器上

scp  -r  /usr/local/zookeeper-3.3.6 zookeeper2:/usr/local

scp –r  /usr/local/zookeeper-3.3.6 zookeeper3:/usr/local

i.另外两台机器也按上台机器一样,配置下环境变量

 

2.2.3配置集群

(1)在每个zookeeper的 data 目录下创建一个 myid 文件,内容分别是1、2、3 。这个文件就是记录每个服务器的ID (zookeeper1 对应的是1,zookeeper2 对应的是2,zookeeper3对应的是3)

如果你要创建的文本文件内容比较简单,我们可以通过echo 命令快速创建文件

格式为:

echo 内容 >文件名

例如我们为第一个zookeeper指定ID为1,则输入命令

 

(2)在每一个zookeeper 的 zoo.cfg配置客户端访问端口(clientPort)和集群服务器IP列表。

集群服务器IP列表如下

server.1=192.168.1.82:2888:3888

server.2=192.168.1.84:2888:3888

server.3=192.168.1.32:2888:3888

解释:server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口

 

2.2.4启动集群

启动集群就是分别启动每个实例。进入 zookeeper1,zookeeper2,zookeeper3 三台服务器每台都执行如下命令zkServer.sh  start

 

启动后我们查询一下每个实例的运行状态

先查询第一个服务

 

Mode为follower表示是跟随者(从)

再查询第二个服务Mod 为leader表示是领导者(主)

 

查询第三个为跟随者(从)

 

2.2.5模拟集群异常

(1)首先先测试如果是从服务器挂掉,会怎么样

把3号服务器停掉,观察1号和2号,发现状态并没有变化

 

3号服务器

 

1号服务器

 

2号服务器

由此得出结论,3个节点的集群,从服务器挂掉,集群正常

(2)再把1号服务器(从服务器)也停掉,查看2号(主服务器)的状态,发现已经停止运行了。

 

由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也无法运行。因为可运行的机器没有超过集群总数量的半数。

(3)再次把1号服务器启动起来,发现2号服务器又开始正常工作了。而且依然是领导者。

 

(4)把3号服务器也启动起来,把2号服务器停掉,停掉后观察1号和3号的状态。

 

发现3号成为了leader者~ 

由此得出结论,当集群中的主服务器挂了,集群中的其他服务器会自动进行选举状态,然后产生新得leader

(5)再次测试,把2号服务器重新启动起来

 

会发现,2号服务器启动后依然是跟随者(从服务器),3号服务器依然是领导者(主服务器)。

由此得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。

到此zookeeper安装,测试完成!

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值