Zookeeper分布式集群部署

一、Zoopkeeper安装包下载安装,此处我们选择版本为3.4.10

1、下载地址:Index of /dist/zookeeper/zookeeper-3.4.10 (apache.org)https://archive.apache.org/dist/zookeeper/zookeeper-3.4.10/

2、上传Zoopkeeper安装包

使用rz命令将下载好的Zoopkeeper安装包上传到Centos7的/export/software/目录下(需提前创建文件)

3、解压Zoopkeeper安装包

在存放安装包的目录下解压安装包到/export/servers/目录(需提前创建),具体命令

[root@hadoop01 /]# cd /export/software
[root@hadoop01 software]# rz

[root@hadoop01 software]# tar -zxvf zookeeper-3.4.10.tar.gz -C /export/servers/

二、Zoopkeeper 相关配置

1、修改Zookeeper解压目录下的conf目录,复制其下zoo_sample.cfg文件并重命名为zoo_cfg,命令如下:

[root@hadoop01 software]# cd /export/servers

[root@hadoop01 servers]# cd zookeeper-3.4.10

[root@hadoop01 zookeeper-3.4.10]# cd conf
[root@hadoop01 conf]# cp zoo_sample.cfg zoo.cfg

修改配置文件zoo.cfg,设置dataDir目录,配置服务器编号与主机映射关系,设置与主机连接的心跳端口和选举端口 

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
#设置数据文件目录+数据持久化路径/

dataDir=/export/data/zookeeper/zkdata
# the port at which the clients will connect
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
#配置zookeeper集群的服务器编号以及对应的主机名、通讯端口号(心跳端口号)和选举端口号
server.1=hadoop01:2888:3888
server.2=hadoop02:2888:3888
server.3=hadoop03:2888:3888

 

提示, server.1=hadoop01:2888:3888中,1代表服务器编号,Hadoop01表示服务器IP地址,2888表示通讯端口号,3888表示leader选举端口号

2、创建myid文件

首先据文件zoo.cfg中设置的dataDir目录,创建zkdata文件夹

[root@hadoop01 /]# mkdir -p /export/data/zookeeper/zkdata

其次,在zkdata文件夹下创建myid文件,该文件内容为服务器编号,在myid文件中写入1

 [root@hadoop01 /]# cd /export/data/zookeeper/zkdata
[root@hadoop01 zkdata]# echo 1>myid

[root@hadoop01 zkdata]# cat myid
1

 

3、配置环境变量

 执行命令vi /etc/profile对profile文件进行修改,添加Zookeeper的环境变量,命令

export ZK_HOME=/export/servers/zookeeper-3.4.10
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZK_HOME/bin

4、分发Zookeeper相关文件到其他服务器

首先将Zookeeper安装目录分发到hadoop02和hadoop03服务器上

[root@hadoop01 /]# scp -r /export/servers/zookeeper-3.4.10/ hadoop02:/export/servers/

[root@hadoop01 /]# scp -r /export/servers/zookeeper-3.4.10/ hadoop03:/export/servers/

 其次,将myid文件分发到hadoop02和hadoop03服务器,并修改myid文件依次对服务器号进行设置

[root@hadoop01 /]# scp -r /export/data/zookeeper/ hadoop02:/export/data
myid                                                                       100%    1     0.0KB/s   00:00    
[root@hadoop01 /]# scp -r /export/data/zookeeper/ hadoop03:/export/data
myid                                                                       100%    1     0.0KB/s   00:00 

 最后将profile文件也分发到hadoop02和hadoop03服务器

[root@hadoop01 /]# scp /etc/profile hadoop02:/etc/profile
profile                                                                    100% 2116     2.1KB/s   00:00    
[root@hadoop01 /]# scp /etc/profile hadoop03:/etc/profile
profile                                                                    100% 2116     2.1KB/s   00:00

5、环境变量生效

分别在hadoop01/02/03服务器下刷新profile文件,使环境变量生效

# source /etc/profile

三、Zookeeper服务的启动和关闭

1、启动Zookeeper服务

依次在三个服务器上启动zookeeper服务,

[root@hadoop01 /]# zkServer.sh start
ZooKeeper JMX enabled by default
Using config: /export/servers/zookeeper-3.4.10/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED

2、查看角色

[root@hadoop02 ~]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /export/servers/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: follower
[root@hadoop01 ~]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /export/servers/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: leader

3、关闭Zookeeper服务

[root@hadoop03 ~]# zkServer.sh stop
ZooKeeper JMX enabled by default
Using config: /export/servers/zookeeper-3.4.10/bin/../conf/zoo.cfg
Stopping zookeeper ... STOPPED

至此,Zookeeper的Leader+Follower模式集群部署成功。

部署Zookeeper分布式集群时,需要按照以下步骤进行操作: 1. 下载Zookeeper软件包:访问Apache Zookeeper官方网站,下载适用于您的操作系统的最新版本的Zookeeper软件包。 2. 解压软件包:将下载的软件包解压到您选择的目录中。 3. 配置Zookeeper节点:在解压目录中,创建一个新的文件夹,并在该文件夹内为每个Zookeeper节点创建一个配置文件(例如,zoo.cfg)。 4. 编辑配置文件:打开每个Zookeeper节点的配置文件,并进行以下配置: - 指定数据目录(dataDir):将每个节点的数据目录设置为独立的文件夹。 - 配置客户端端口(clientPort):指定用于与Zookeeper集群通信的端口号。 - 配置集群节点信息(server):指定每个节点的ID、主机名和通信端口。 5. 启动Zookeeper节点:在每个节点上启动Zookeeper实例。使用命令行界面进入每个节点的目录,然后运行以下命令: ``` $ bin/zkServer.sh start ``` 6. 检查集群状态:运行以下命令检查集群状态: ``` $ bin/zkServer.sh status ``` 7. 配置Zookeeper客户端:在要连接到Zookeeper集群的机器上,编辑Zookeeper客户端的配置文件(例如,zoo.cfg)。指定Zookeeper集群中的所有节点的主机名和通信端口。 8. 启动Zookeeper客户端:使用命令行界面进入Zookeeper客户端的目录,并运行以下命令启动客户端: ``` $ bin/zkCli.sh ``` 9. 连接到Zookeeper集群:在Zookeeper客户端中,使用以下命令连接到Zookeeper集群: ``` $ connect host:port ``` 其中,host是任意Zookeeper节点的主机名,port是该节点的通信端口。 10. 运行Zookeeper命令:一旦成功连接到Zookeeper集群,您可以使用Zookeeper提供的命令进行管理和操作。 请注意,这些步骤只提供了Zookeeper分布式集群部署的基本指导,实际部署可能会因环境和需求而有所不同。确保在部署过程中参考官方文档和最佳实践。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值