zookeeper集群环境搭建详细图文教程

软件环境

如果自己没有服务器的话,可以在本机安装WMware虚拟机,如何安装虚拟机,请自行解决。

 

VMware-workstation-full-14虚拟机下载地址(里面有永久注册码)

https://pan.baidu.com/s/1eR9T9lw

 

CentOS-6.5_64位下载地址

https://pan.baidu.com/s/1bZegMi

 

Zookeeper_3.4.9下载地址

https://archive.apache.org/dist/zookeeper/zookeeper-3.4.9/zookeeper-3.4.9.tar.gz

 

注意点

在登录虚拟机中的Linux系统的时候,登录用户请使用系统自带的root,密码即为安装过程中自定义的密码。

不要使用自定义的用户名登录,不然有些目录是没有写的权限的,避免出现一些意外的情况,建议使用root最高权限账户登录.

 

环境安装

我们先在一台虚拟机中安装配置好单个ZK服务,成功后我们克隆出多个虚拟机,就无需在其他虚拟机中重新下载安装zookeeper等重复操作。

1新建用于存储安装包以及软件安装的目录

 / 目录下创建一个以我的名字zhoubang为名称的目录,个人习惯罢了,这个请自行命名;

https://i-blog.csdnimg.cn/blog_migrate/e641c953738f54ec4d9fbed7d3d14b79.png

同时在zhoubang目录下再新建2个目录software(存储安装包)、operation(软件安装的目录),这些都是个人习惯,你们也可以自行选择目录创建。

 https://i-blog.csdnimg.cn/blog_migrate/2a2ce0cd4831d3fe14a4a0f1ea514c23.png

2下载安装zookeeper

  • 在线下载:推荐使用此方式,简单方便。
  • 本地上传安装包  :前提是本地已经有zookeeper的安装包了。你可以通过FTP等上传工具直接上传到对应目录下.

zk在线下载与安装:

通过命令 cd /zhoubang/software 进入安装包的存储目录,使用wget命令下载zookeeper(下载地址文档上面已经提供);如下图,回车即可下载:

https://i-blog.csdnimg.cn/blog_migrate/64e937128f9a5d296464644ae5dda591.png

回车之后如果出现下图所示的<未知的名称或服务>错误,请检查当前虚拟机下的Linux系统的网络连接是否正常;

https://i-blog.csdnimg.cn/blog_migrate/3a8c40b2e3f571980c1c1a9042ae37bd.png

3、解压zookeeper压缩包

进入 /zhoubang/software目录, 通过命令 tar -zxvf ./zookeeper-3.4.9.tar.gz -C /zhoubang/operation/ 解压zookeeper包到指定目录,这里我解压到 /zhoubang/operation 目录下,如图:

https://i-blog.csdnimg.cn/blog_migrate/60b3e45ccbcf84b4cc80271c168c9ccd.png

此时,在/zhoubang/operation目录下,就会有zookeeper的资源,如下图:

https://i-blog.csdnimg.cn/blog_migrate/60c4661f2bb7c21a5cf845e4a8fec7c2.png

 

 

单节点zookeeper配置

1、配置zoo.cfg文件

https://i-blog.csdnimg.cn/blog_migrate/8e1b636e094d196b9b86a2b1581678ef.png

如上图,zk提供的配置文件名称为zoo_sample.cfg ,首先我们需要将此文件重命名为zoo.cfg。因为zookeeper默认会加载zoo.cfg的文件,这是zk的规定。

 

查看一下zoo.cfg配置文件里面的内容有什么,如下图:

https://i-blog.csdnimg.cn/blog_migrate/56b22f306bebf1d4fb7b4dda9f52f334.png

其中,最常用的配置有以下几个:

  • tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。
  • dataDir:顾名思义就是 Zookeeper 保存数据的目录,默认情况下,Zookeeper的日志文件是在bin目录下,有一个zookeeper.out文件。
  • clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。伪集群模式下,这个端口需要配置成不同的。如果是多台虚拟机或者服务器下,则无需更改。

 

2、配置zookeeper的数据存储目录

这里我就在zookeeper的安装根目录下,新建了一个dataDir目录,用于存储zookeeper的数据。

如下图:

https://i-blog.csdnimg.cn/blog_migrate/802c3dd6775997036723cc232b3f02ab.png

 

 修改zoo.cfg中的dataDir配置,即为刚刚新建的dataDir的目录地址。最终修改的结果如下图:

https://i-blog.csdnimg.cn/blog_migrate/eb0587fd87a1b6bfa3b19f57f8fa3a0a.png

 

3新建myid文件

在刚刚新建的dataDir目录下,新建一个myid文件,该文件里面的内容,这里我就填写为1,至于数值1有何作用和意义?是否可以为其他数字?当然,我也不多做玄乎了,这数值是可以自定义的,单范围只能是1-255之间。具体的含义,下面会介绍。如下图:

https://i-blog.csdnimg.cn/blog_migrate/9109579afdbf93fdd226b1c75c5a9098.png

 

4配置zookeeper集群节点

zoo.cfg文件中的最下面,配置zk集群节点信息;当前配置的是单台虚拟机,所以配置内容目前只有一个server节点(等将其他虚拟机克隆并启动之后,就可以将其他虚拟机信息添加到此),效果如图:

https://i-blog.csdnimg.cn/blog_migrate/f85b3f4c8599dd843303a8945a6a75bb.png

server】的配置含义说明:

server.A=B:C:D

其中 A 是一个数字,表示这个是第几号服务器;

B 是这个服务器的 ip 地址;

C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;

D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。

 

如果是伪集群的配置方式(也就是在一台服务器上搭建多个ZK服务节点),由于 一台服务器下的IP地址肯定一样,所以不同的 Zookeeper 实例通信端口号不能一样,故需要给它们分配不同的端口号。

相反,如果是在不同的服务器下(不同的虚拟机,IP地址不同)搭建ZK的话,由于IP地址不同,则CD对应的通信端口可以保持一致。当然也可以配置成其他的端口。

 

【注意点】:

其中的server.1里面的数字1,是我们在myid文件中指定的数值。代表不同的zk节点。

同时,IP地址配置也要与server.1所在的服务器节点的IP地址一致。

后面的2个通信端口,随意指定,只要不与其他端口冲突就行。

 

5启动zookeeper服务

进入zookeeperbin目录下,执行命令启动zookeeper服务

如下图:

https://i-blog.csdnimg.cn/blog_migrate/7d2c332d13f253b632c8a15e677a30f1.png

 

 

6检查zookeeper服务是否成功启动

bin目录下,通过命令 ./zkServer.sh status 查看启动状态,如图:

https://i-blog.csdnimg.cn/blog_migrate/e4bc1cee3ab30e0fdc9759924dab5dba.png

由于我只启动了一个ZK服务,所以Mode后面的信息为standalone,意思独立节点。

 

 

多节点zookeeper配置

到上面为止,我们只是在单台虚拟机中成功搭建了zookeeper服务。接下来我们就开始在其他的虚拟机节点中配置zookeeper集群节点信息。

我本机电脑上克隆出了3个虚拟机(当然你也可以克隆很多个,为了学习方便,只配置3个节点就够了)。

IP地址分别是:

192.168.52.128

192.168.52.129

192.168.52.130

 

虚拟机克隆情况,如图所示:

https://i-blog.csdnimg.cn/blog_migrate/1c1eb2fbf58ac6fc5d9cec9ebf63e444.png

这里虚拟机的命名,是方便大家查看的。 后面的数值123分别是我在zookeepermyid文件中指定的数值。

每台虚拟机中的系统环境以及zookeeper的安装配置,都与上面的单节点的zookeeper配置一致。

 

1、不同虚拟机下的zookeeper配置

需要更改的地方有以下几点:

  •  myid文件
  •  zoo.cfg 文件

1.1  首先我们修改192.168.52.128 对应的虚拟机中的zookeeper配置。

  myid文件中的数值为1(当前第一台虚拟机下的zookeeper可以不用修改,只修改另外2台即可)

  然后修改zoo.cfg文件,在最下面添加ZK节点配置.

  最终配置效果如下:

 https://i-blog.csdnimg.cn/blog_migrate/24a8fa4a1fef6b5da034192587d09e9a.png

通过配置我们可以看到,需要将其他的zookeeper节点信息配置进来。

再强调一遍,server.1server.2server.3 中的数值123,对应的是dataDirmyid文件中的数值,不要配置错了,包括IP也要对应。

 

按照上面的操作步骤,分别对192.168.52.129192.168.52.130的虚拟机中的zookeeper进行配置。如下:

1.2192.168.52.129虚拟机中的zookeeper下的myid中的数值填写 ,对应的zoo.cfg文件最下面的配置,和上图一样的server配置,可以直接copy过去,最终配置如下:

https://i-blog.csdnimg.cn/blog_migrate/b7cfc204d5cf4040d3df2483c6515afe.png

1.3192.168.52.130虚拟机中的zookeeper下的myid中的数值填写 3 ,对应的zoo.cfg文件最下面的配置,和上图一样的server配置,可以直接copy过去,最终配置如下:

https://i-blog.csdnimg.cn/blog_migrate/abb7d7c4d0d2fc432593f4346ff6dd18.png

至此,我们3zookeeper节点的配置已经完毕。下面我们就启动zookeeper服务,验证集群是否搭建成功!

 

2、验证不同虚拟机下的zookeeper服务

分别进入每个虚拟机下的zookeeperbin目录下,执行命令 ./zkServer.sh start 启动ZK服务!

通过命令 ./zkServer.sh status查看ZK启动状态。如果出现了以下错误:

https://i-blog.csdnimg.cn/blog_migrate/0d628716a36e4ec470bd8c5558d1ab6f.png

 

 我们去查看一下日志(bin目录下zookeeper.out日志文件)。查看里面的内容,有一段错误信息如下:

https://i-blog.csdnimg.cn/blog_migrate/d73c316b7da54256ee787e7d06a8c899.png

这种情况下,网上很多人都说是防火墙开启导致端口无法通信造成的;那我就在每个虚拟机上,把防火墙关闭;可以使用命令 service iptables stop 临时修改防火墙状态,关闭防火墙。

https://i-blog.csdnimg.cn/blog_migrate/6ccd951ef7a18190915266447b360788.png

防火墙关闭了,这时候全部重启zookeeper,再通过 ./zkServer.sh status 命令查看启动状态,如果出现下面的任意一个结果,说明ZK集群环境已经搭建成功,如下图:

https://i-blog.csdnimg.cn/blog_migrate/ee4d4cd87025e1bff3474a5ac23283fd.png

https://i-blog.csdnimg.cn/blog_migrate/71d06bf3fd147c4fe88ec6ac7ef7ca17.png

到此,zookeeper集群环境已经搭建完毕!

 

 

zookeeper客户端连接测试

我们可以通过zkCli.sh提供的命令进行客户端连接测试,检测是否可以跨节点连接。

 

先看一下各zookeeper节点的角色关系:

192.168.52.128  follower

如下图:

https://i-blog.csdnimg.cn/blog_migrate/31c74b5534cee8bc45fe090882af4b9d.png

 

192.168.52.129  follower

如下图:

https://i-blog.csdnimg.cn/blog_migrate/80e203d28a4feee7fc2c5069d26e2045.png

 

192.168.52.130  leader

如下图:

https://i-blog.csdnimg.cn/blog_migrate/828bc2426428cb63101322c276c48318.png

 

连接节点自身

我们先在任意一个zookeeper节点的bin目录,通过命令./zkCli.sh -server 192.168.52.129:2181连接自己本身(这里我就在IP192.168.52.129的服务器下做客户端连接测试),

如图:

https://i-blog.csdnimg.cn/blog_migrate/c261a15c3f40819063ed5b3c1e5dae6e.png

出现上图所示内容,说明zookeeper客户端连接OK。退出命令为 quit

 

跨节点连接

既然是集群环境,那肯定可以在任意zookeeper节点下,去连接任意的zookeeper节点。

我们试一下就知道了,同样的,通过命令./zkCli.sh -server 192.168.52.129:2181连接任意节点。

上面已经做了连接自身的测试了,现在我们就来操作,在192.168.52.129的服务器上去连接其他的2台服务器上的zookeeper服务。

 

先连接192.168.52.128服务器上的zookeeper服务,如图:

https://i-blog.csdnimg.cn/blog_migrate/456da12a2c4212a44425bcdf9c18d967.png

从图中可以看出,跨服务节点的连接是OK的!

 

 

 连接192.168.52.130服务器上的zookeeper服务,如图

https://i-blog.csdnimg.cn/blog_migrate/0325eae507146281d2955378d1cc47bf.png

 从图中可以看出,跨服务节点的连接是OK的!

 

 

停止任意zk节点,观察zk自动选举leader效果

既然是集群,就必然脱离不了主从的角色,zookeeper自身会根据节点的生存、死亡状态,自动的进行选举切换。

这里我们将角色为leader的解决给停止掉,然后看一下其余的2个处于正常情况的角色分配情况,看看zookeeper会不会自动进行选举leader并切换。

 

再说明一下当前3zk节点的角色关系

192.168.52.128  follower

192.168.52.129  follower

192.168.52.130  leader

 

我们先停止192.168.52.130这个leader主节点,进入zookeeperbin目录,执行命令 ./zkServer.sh stop 停止服务。然后通过命令 ./zkServer.sh status 查看当前zk节点状态是否已经停止,如图:

https://i-blog.csdnimg.cn/blog_migrate/122394d556fb8458e7c2033f1a3b1ee6.png

说明之前的leader角色的节点已经停止成功了!

乘胜追击,大约等待530秒左右,我们去看一下另外2zk节点的角色状态,经过查看,最新的角色分配情况如下:

 

192.168.52.128  follower

https://i-blog.csdnimg.cn/blog_migrate/9105e1160269f71da932d6413210aff4.png

 

192.168.52.129  leader

https://i-blog.csdnimg.cn/blog_migrate/d4dcc628c20c5ddcd1b87754b2429960.png

 

从以上2张图中可以看到,192.168.52.129这个服务器上的zk节点的角色,从之前的follower变成了leader192.168.52.128角色没有发生变化。

这就证明了,zookeeper会自动进行leader选举,而异常停止的zk节点会被剔除在外,不再提供服务。

 

 

恢复停止的zk节点,观察zk集群节点最新角色分配情况

上面的操作,我们知道了zk可以自动进行leader选举,剔除死亡的服务节点;那么,当我们恢复刚刚停止的zk节点的话,那这3个节点之间的觉得分配情况又是如何呢?

启动刚刚停止的zk节点(192.168.52.130),然后在每一个zkbin目录下,通过命令 ./zkServer.sh status 查看角色分配情况,结果如下图:

 

192.168.52.128  follower

https://i-blog.csdnimg.cn/blog_migrate/6ee1bc214f42c66865fc6731d37b3171.png

 

 192.168.52.129  leader

https://i-blog.csdnimg.cn/blog_migrate/5939b38af82668aa75204fb35426cd07.png

 

192.168.52.130  follower

https://i-blog.csdnimg.cn/blog_migrate/f0068b28951834d61cef946eb9c40d57.png

从图中可以观察到,我们把之前停止的zk节点(192.168.52.130)恢复后,这个节点的角色为follower,并没有恢复原先停止之前的leader角色。

这说明,当zk进行重新leader选举后,除非leader意外宕机,否则角色不会发生变化。

 

 

总结

经过了详细的操作以及测试,我相信对于新手而言,肯定会学习到不少知识点。这也不枉费我的心血付出啊,写文档好累的啊~不过一切值得,文档完成的那一刻,将会永久留存在互联网中,供他人学习使用。

其实zookeeper的集群环境搭建以及配置,是很简单的。只有亲身操作,才感受到很简单,没有那么复杂。不要被“集群”等专业术语所吓到。

本文档写的很详细了,不仅仅只包含环境搭建和配置,也对zk的一些特点以及主从选举进行了案例测试和说明,加深此文档的知识储备水平。

好了,就说到这吧,祝各位学习顺利~

 

【经验补充】

1如果在zoo.cfg文件中只配置了一个server节点,且server的内容为当前服务器的信息;是否可以启动成功呢?比如下面的情况:

https://i-blog.csdnimg.cn/blog_migrate/9e6ab40ffa4de75982b8e2cdb7c2bf58.png

则在通过命令 ./zkServer.sh start 启动zk服务的时候,是可以正常启动的。如下图:

https://i-blog.csdnimg.cn/blog_migrate/86f9094184cf090a258acb57f0a8ca9c.png

可以看到,Modestandalone 的信息,说明是ZK单点。因为我们在zoo.cfg中只配置了自己的server信息.

当然,在zoo.cfg中如果一个server配置都没有的话,也是这样的效果,可以成功启动。

 

2与上面第一点相反,如果在zoo.cfg中配置了大于1个的server的配置,如果只启动一个ZK实例,会启动成功吗?如下图:

https://i-blog.csdnimg.cn/blog_migrate/127547f2cca0fbe981952a4e12f61c3c.png

这时候如果上面3ZK没有一个启动的话(都是停止状态),如果此时在任意一个ZKbin目录下通过命令 ./zkServer.sh start启动的话,再使用命令 ./zkServer status 查看启动状态,你会发现,会一直报一个错误,如图:

https://i-blog.csdnimg.cn/blog_migrate/1564936e56cbea3741a876304fbe8a02.png

这种错误的原因,就是因为你只启动了一个ZK实例导致的;为什么会这样呢?

你想想,既然是在zoo.cfg中配置了3server,说明是集群的配置,既然是集群,那么必然会有2种角色,一个是leader、一个是follower;这就说明,我们的ZK服务节点必须至少有2台是正常服务的。

如果只有一台实例启动,请问这台是leader角色还是follower角色呢?都不是!原因很简单,如果唯一启动的这台ZK突然宕机了,请问,下一个接手的ZK服务节点是谁呢?肯定没有。这样的话,也就失去了集群的意义。

因此,ZK启动的时候,本身会进行验证,必须启动至少2ZK实例,才可以正常提供leader选举服务。否则就会一直出现上图的错误信息;

 

3 如下图所示,在zoo.cfgserver配置中,是否可以将其中的IP地址使用域名或者其他易于识别的名称代替?如图:

https://i-blog.csdnimg.cn/blog_migrate/0bb0203cb5ca701ef28b64c595fc85a5.png

思考:我们都知道,一个服务器正常都是使用域名来访问的,使用域名的好处就是防止IP发生变化导致服务器频繁修改IP引用。在上图的zookeeper集群的配置中,使用的是IP地址的配置访问,其实使用IP来这么做的一个缺陷,肯定就是刚刚说的IP变化所带来的服务不可用。所以,线上环境一般建议通过域名来配置,方便扩展维护。

问题:如何将192.168.52.128192.168.52.129192.168.52.130通过域名或者其他易于识别的别名替换?

答案:解决方案肯定是有的。

我们就拿其中一个zookeeper节点进行讲解配置,其他的节点配置都是一样的。

我这里选择了 192.168.52.128这个服务器进行zookeeper集群信息的优化配置;

1首先,肯定需要设置IP地址与域名的映射关系,类似于window系统中的host

通过命令vi编辑 /etc/hosts 文件,进入编辑区域。最终配置如图:

https://i-blog.csdnimg.cn/blog_migrate/dbbf64546beeea8cfa9670020aa19033.png

文件内部最顶层是系统默认有的配置,我们不用理会。我们只需要添加zookeeper3台服务器节点的IP与别名的映射关系即可。

IP地址右侧的配置,可以随意指定别名或者域名,方便区分标识即可。

保存之后,你也可以通过ping命令来测一下网络状态,如图:

 https://i-blog.csdnimg.cn/blog_migrate/5b49412c5d9f36f8783bdd4dba856fdf.png

图中所示结果,说明配置的没有问题。

 

2、修改zookeeperzoo.cfg文件,将里面的server配置部分中的IP地址,替换为上面对应配置的别名,zoo.cfg最终配置如下:

https://i-blog.csdnimg.cn/blog_migrate/58ce9b76f6082e5a7ed58c0d53211c78.png

3、重启zookeeper,进行测试验证,是否可以成功启动

https://i-blog.csdnimg.cn/blog_migrate/f6fec96cd0cb5e8435442870cfb1ec62.png

  • 从上图会看到,zookeeper重启后,zookeeper服务是正常的。故:按照上面的/etc/hosts的映射配置,是可以实现IP地址替换为别名的。
  • 当然,有的朋友或许会问, /etc/hosts 文件下不还是有IP地址的配置吗,有什么提升和好处?

  其实很容易理解,如果在zoo.cfg中使用IP配置,当zookeeper节点启动之后,如果IP发生了变化,如果zookeeper服务不重启的话,zookeeper始终会使用之前配置文件中的IP进行通信,就造成服务始终不可用,还是需要手动去调整IP才可以。

  而通过在 /etc/host 中进行IP地址的映射,即使IP发生了变化,我们只需要在 /etc/hosts 里面配置即可,zookeeper服务是不用重新重启的,实现了无缝对接和维护扩展。

  这也就是软件架构中最常见的优化思想。

 

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值