zookeeper 集群搭建、原理

 

日萌社

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


大数据组件使用 总文章 

大部分分布式应用需要一个主控、协调器或者控制器来管理物理分布的子进程。
目前,大多数都要开发私有的协调程序,缺乏一个通用机制,协调程序的反复编写浪费,且难以形成通用、伸缩性好的协调器,
zookeeper提供通用的分布式锁服务,用以协调分布式应用。
所以说zookeeper是分布式应用的协作服务。zookeeper作为注册中心,服务器和客户端都要访问,如果有大量的并发,肯定会有等待。
所以可以通过zookeeper集群解决。
下面是zookeeper集群部署结构图:

Leader选举:
	Zookeeper的启动过程中,Leader选举是非常重要而且最复杂的一个环节。
	那么什么是Leader选举呢?zookeeper为什么需要Leader选举呢?zookeeper的Leader选举的过程又是什么样子的?
	首先我们来看看什么是Leader选举。其实这个很好理解,leader选举就像总统选举一样,每人一票,获得多数票的人就当选为总统了。
	在zookeeper集群中也是一样,每个节点都会投票,如果某个节点获得超过半数以上的节点的投票,则该节点就是Leader节点了。

以一个简单的例子来说明整个选举的过程: 
	假设有五台服务器组成的zookeeper集群,它们的id从1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的。
	假设这些服务器依序启动,来看看会发生什么。
	1.服务器1启动,此时只有它一台服务器启动了,它发出去的通信没有任何响应,所以它的选举状态一直是LOOKING状态 。 
	2.服务器2启动,它与最开始启动的服务器1进行通信,互相交换自己的选举结果,由于两者都没有历史数据,所以id值较大的服务器2胜出,
	  但是由于没有达到超过半数以上的服务器都同意选举它,所以服务器1和服务器2还是继续保持LOOKING状态。
	  只有服务器总数为3,其中半数以上即2台服务器都投票其中一台服务器,那么这台被选中的服务器即为这次选举的Leader。
	3.服务器3启动,根据前面的理论分析,服务器3成为服务器1、2、3中的老大,而与上面不同的是,此时有三台服务器选举了它,所以它成为了这次选举的leade。 
	4.服务器4启动,根据前面的分析,理论上服务器4应该是服务器1、2、3、4中最大的,但是由于前面已经有半数以上的服务器选举了服务器3,
	  所以服务器4只能当小弟了。  
	5.服务器5启动,同4一样,当小弟。

搭建Zookeeper集群

集群搭建使用 桥接 和 NAT的选择:
	1.必须使用桥接:
		在局域网中多台计算机都使用桥接时,每台服务器都在同一网段,每台服务器都可以互相ping通,
	  	所以局域网中多台计算机使用桥接模式的话,便可以搭建集群。即使本机能上网,但是桥接模式下的虚拟机并不能直接上网。
	2.不使用NAT:
		因为NAT模式下的虚拟机网段首先就和本机的IPV4的网段不一样,即使把NAT模式设置成和本机的IPV4一样的网段,
		局域网中多台计算机还是无法ping通各自的虚拟机。但是只要本机能上网,NAT模式下的虚拟机也能直接上网。
1.搭建要求:
	真实的集群是需要部署在不同的服务器上的,但是在我们测试时同时启动十几个虚拟机内存会吃不消,所以我们通常会搭建伪集群,
	也就是把所有的服务都搭建在一台虚拟机上,用端口进行区分。
	我们这里要求搭建一个三个节点的Zookeeper集群(伪集群)。

2.准备工作:
	1.安装JDK 
	2.Zookeeper压缩包上传到服务器,将Zookeeper解压 ,创建data目录 ,将 conf下zoo_sample.cfg 文件改名为 zoo.cfg
	3.建立/usr/local/zookeeper-cluster目录,将解压后的Zookeeper复制到以下三个目录
		/usr/local/zookeeper-cluster/zookeeper-1
		/usr/local/zookeeper-cluster/zookeeper-2
		/usr/local/zookeeper-cluster/zookeeper-3
	  命令:
		[root@localhost ~]# mkdir /usr/local/zookeeper-cluster
		[root@localhost ~]# cp -r  zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-1
		[root@localhost ~]# cp -r  zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-2
		[root@localhost ~]# cp -r  zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-3

	4.配置每一个Zookeeper 的dataDir(zoo.cfg) clientPort 分别为2181、2182、2183
	  步骤:
		1.修改 /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg:
			clientPort=2181
			dataDir=/usr/local/zookeeper-cluster/zookeeper-1/data
		2.修改 /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg:
			clientPort=2182
			dataDir=/usr/local/zookeeper-cluster/zookeeper-2/data
		3.修改 /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg:
			clientPort=2183
			dataDir=/usr/local/zookeeper-cluster/zookeeper-3/data
3.配置集群:
	1.在每个zookeeper 中的 data 目录下创建一个 myid 文件,内容分别是1、2、3 。这个文件就是记录每个服务器的ID。
	  如果你要创建的文本文件内容比较简单,我们可以通过echo 命令快速创建文件
	  格式为: echo 内容 >文件名
	  例如我们为第一个zookeeper指定ID为1,则输入命令

	2.在每一个zookeeper 中的 zoo.cfg配置客户端访问端口(clientPort)和集群服务器IP列表。
	  格式:server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口
	  集群服务器IP列表如下:
		server.1=192.168.25.128:2881:3881
		server.2=192.168.25.128:2882:3882
		server.3=192.168.25.128:2883:3883


4.启动集群:
	1.启动集群就是分别启动每个实例。

	2.启动后我们查询一下每个实例的运行状态
	  先查询第一个服务,Mode的值:为follower时,表示是跟随者(从)

	3.再查询第二个服务,Mode的值:为leader时,表示是领导者(主)

	4.查询第三个服务,Mode的值:为follower时,表示是跟随者(从)

5.模拟集群异常
	1.首先我们先测试如果是从服务器挂掉,会怎么样
	  把3号服务器停掉,观察1号和2号,发现状态并没有变化。由此得出结论,3个节点的集群,从服务器挂掉,集群正常

	2.我们再把1号服务器(从服务器)也停掉,查看2号(主服务器)的状态,发现已经停止运行了。
	  由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也无法运行。因为可运行的机器没有超过集群总数量的半数。

	3.我们再次把1号服务器启动起来,发现2号服务器又开始正常工作了。而且依然是领导者。

	4.我们把3号服务器也启动起来,把2号服务器停掉,停掉后观察1号和3号的状态。
	  发现新的leader产生了。由此我们得出结论,当集群中的主服务器挂了,集群中的其他服务器会自动进行选举状态,然后产生新得leader 

	5.我们再次测试,当我们把2号服务器重新启动起来。启动后,会发生什么?2号服务器会再次成为新的领导吗?我们看结果
	  我们会发现,2号服务器启动后依然是跟随者(从服务器),3号服务器依然是领导者(主服务器),没有撼动3号服务器的领导地位。
	  由此我们得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。

6.Dubbox连接zookeeper集群:
	修改服务提供者和服务调用者的spring 配置文件:
		<!-- 指定注册中心地址 -->
		<dubbo:registry protocol="zookeeper" address="192.168.25.128:2181,192.168.25.128:2182,192.168.25.128:2183"></dubbo:registry>

搭建Zookeeper集群 

1.mkdir /usr/local/zookeeper-cluster
2.cd /usr/local/zookeeper-cluster
3.tar -zxvf zookeeper-3.4.6.tar.gz
4.进入 zookeeper-3.4.6 目录,创建 data 文件夹,用于存放Zookeeper的注册数据。
  	cd zookeeper-3.4.6
  	mkdir data
5.进入conf目录,把 zoo_sample.cfg 改名为 zoo.cfg
  	cd conf
  	mv zoo_sample.cfg zoo.cfg
6.把zookeeper-3.4.6拷贝三分分别改成:zookeeper-1、zookeeper-2、zookeeper-3:
  	cd /usr/local/zookeeper-cluster
	cp -r zookeeper-3.4.6 zookeeper-1
	cp -r zookeeper-3.4.6 zookeeper-2
	cp -r zookeeper-3.4.6 zookeeper-3
7.修改zookeeper-1、zookeeper-2、zookeeper-3目录下的 conf/zoo.cfg:
	1.修改 /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg:
		clientPort=2181
		dataDir=/usr/local/zookeeper-cluster/zookeeper-1/data
	2.修改 /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg:
		clientPort=2182
		dataDir=/usr/local/zookeeper-cluster/zookeeper-2/data
	3.修改 /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg:
		clientPort=2183
		dataDir=/usr/local/zookeeper-cluster/zookeeper-3/data
8.zookeeper-1、zookeeper-2、zookeeper-3目录下的 data文件夹下创建一个 myid 文件,内容分别是1、2、3。
  这个myid文件就是记录每个服务器的ID。通过echo 命令快速创建文件.
	cd /usr/local/zookeeper-cluster/zookeeper-1/data
	echo 1 > myid 
	cat myid 
	cd /usr/local/zookeeper-cluster/zookeeper-2/data
	echo 2 > myid 
	cat myid 
	cd /usr/local/zookeeper-cluster/zookeeper-3/data
	echo 3 > myid 
	cat myid 
9.修改zookeeper-1、zookeeper-2、zookeeper-3目录下的 conf/zoo.cfg 配置客户端访问端口(clientPort)和集群服务器IP列表:
  格式:server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口
  集群服务器IP列表如下:
	server.1=192.168.25.128:2881:3881
	server.2=192.168.25.128:2882:3882
	server.3=192.168.25.128:2883:3883

	1./usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg 添加如下配置:
		server.1=192.168.25.128:2881:3881
		server.2=192.168.25.128:2882:3882
		server.3=192.168.25.128:2883:3883
	2./usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg 添加如下配置:
		server.1=192.168.25.128:2881:3881
		server.2=192.168.25.128:2882:3882
		server.3=192.168.25.128:2883:3883
	3./usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg 添加如下配置:
		server.1=192.168.25.128:2881:3881
		server.2=192.168.25.128:2882:3882
		server.3=192.168.25.128:2883:3883
10.启动集群:
	1.启动集群之前还必须启动Redis服务器、Solr服务器。
	2.启动zookeeper-1、zookeeper-2、zookeeper-3目录下的bin/zkServer.sh
		1.cd /usr/local/zookeeper-cluster/zookeeper-1/bin
		  ./zkServer.sh start
		  ./zkServer.sh status  显示 Mode: follower
		2.cd /usr/local/zookeeper-cluster/zookeeper-2/bin
		  ./zkServer.sh start
		  ./zkServer.sh status  显示 Mode: leader
		3.cd /usr/local/zookeeper-cluster/zookeeper-3/bin
		  ./zkServer.sh start
		  ./zkServer.sh status 显示 Mode: follower
	3.启动任意一个zookeeper时,是成功启动了,但并没有显示follower或leader的话并不要紧,先继续启动下一个zookeeper,
	  最终再返回来重新启动“没有正常显示follower或leader的”zookeeper,一般就会成功显示follower或leader。

11.Dubbox连接zookeeper集群:

 

 

 

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

あずにゃん

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值