Linux安装Zookeeper

1. Zookeeper是什么

ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,ZooKeeper是以Fast Paxos算法为基础,实现同步服务,配置维护和命名服务等分布式应用。

Zookeeper 分布式服务框架是 Apache Hadoop 的一个子项目,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步服务、集群管理、分布式应用配置项的管理等。核心词就是一个,协调。

2. 下载Zookeeper

 Zookeeper下载地址:Zookeeper3.4.6版本下载地址icon-default.png?t=M276https://archive.apache.org/dist/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz

2.1 创建文件夹并移至此目录

mkdir /usr/local/zookeeper
cd /usr/local/zookeeper/

2.2 在线下载

wget https://archive.apache.org/dist/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz

等待下载完成

2.3 解压压缩包

 tar zxvf zookeeper-3.4.6.tar.gz

3. 单机部署

3.1 配置zoo.cfg文件

Zookeeper 在启动时会找zoo.cfg这个文件作为默认配置文件。而zookeeper-3.4.6/conf 下的zoo_sample.cfg文件, 这个文件里面配置了监听客户端连接的端口等一些信息,我们将此文件复制出一份zoo.cfg文件

移动至配置文件目录

cd /usr/local/zookeeper/zookeeper-3.4.6/conf/

复制出zoo.cfg文件

cp zoo_sample.cfg zoo.cfg

3.2 启动zookeeper

移动到zookeeper的bin目录

cd /usr/local/zookeeper/zookeeper-3.4.6/bin/

启动命令

./zkServer.sh start

 查看是否启动成功

 查看zookeeper进程

ps -ef|grep zookeeper

查看端口是否被占用

netstat  -anp  |grep 2181

 状态为LISTEM则表示已经被占用

4. 集群部署

 4.1 集群部署的概念

ZooKeeper的集群模式下,多个Zookeeper服务器在工作前会选举出一个Leader,在接下来的工作中这个被选举出来的Leader死了,而剩下的Zookeeper服务器会知道这个Leader死掉了,  在活着的Zookeeper集群中会继续选出一个Leader,选举出Leader的目的是为了可以在分布式的环境中保证数据的一致性。 由于ZooKeeper集群中,会有一个Leader负责管理和协调其他集群服务器,因此服务器的数量通常都是单数,例如3,5,7...等,这样2n+1的数量的服务器就可以允许最多n台服务器的失效。

 4.2 集群部署配置文件

tickTime=2000
dataDir=/usr/local/zookeeper/zookeeper-3.4.6/data
clientPort=2181
initLimit=5
syncLimit=2
server.1=127.0.0.1:2888:3888
server.2=127.0.0.1:2888:3888
server.3=127.0.0.1:2888:3888

参数说明

tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳

dataDir:顾名思义就是 Zookeeper 保存数据的目录,默认情况下,Zookeeper 将写数据的日志文件也保存在这个目录里

clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。

initLimit:配置 Zookeeper 接受客户端(指的是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。集群包含多台server, 其中一台为leader, 集群中其余的server为follower,follower和leader之间的最长心跳时间,如该参数设置为5,当已经超过 5 个心跳时间(即 tickTime),总时间长度是 5*2000=10 秒后 Zookeeper 服务器没有收到客户端的返回信息,那么表明这个客户端连接失败。

syncLimit:这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是 2*2000=4 秒 

server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于 B 都是一样,所以不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号

 4.3 创建myid文件

集群模式下还要配置一个文件 myid,这个文件在上面配置的dataDir 目录下,这个文件里面就只有一个数据就是A (服务器对应的编号) 的值,Zookeeper 启动时会读取这个文件,拿到里面的数据与 zoo.cfg 里面的配置信息比较从而判断到底是那个 server,如上图写1,2,3即可

 4.4 启动模式

启动方式跟之前单机启动一样,不过需要在集群所有节点上进行启动:

 ./zkServer.sh start

5. 单机集群部署

5.1 复制多份zookeeper

不能直接cp命令,因为复制文件下有其他文件所以需要cp -r,命令如下

cp -r zookeeper-3.4.6 zookeeper-3.4.6-node1

复制出三份节点

5.1 修改三份zoo.cfg

移动至各自节点的conf目录下

cd /usr/local/zookeeper/zookeeper-3.4.6-node1/conf/

编辑zoo.cfg

vim zoo.cfg

zookeeper-3.4.6-node1

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/usr/local/zookeeper/zookeeper-3.4.6-node1/data

clientPort=2181

server.1=localhost:2887:3887

server.2=localhost:2888:3888

server.3=localhost:2889:3889

zookeeper-3.4.6-node2

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/usr/local/zookeeper/zookeeper-3.4.6-node2/data

clientPort=2181

server.1=localhost:2887:3887

server.2=localhost:2888:3888

server.3=localhost:2889:3889

zookeeper-3.4.6-node3

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/usr/local/zookeeper/zookeeper-3.4.6-node3/data

clientPort=2181

server.1=localhost:2887:3887

server.2=localhost:2888:3888

server.3=localhost:2889:3889

由于三个服务都在同一台服务器上,因此这里要保证地址的唯一性,因此要特别注意IP地址和端口号不要互相冲突,IP相同,端口一定不能相同,以免影响程序的正确执行。

5.2 创建myid文件

然后是最重要的步骤,一定不能忘了。 去各个 ZooKeeper节点,新建目录 dataDir=/usr/local/zookeeper/zookeeper-3.4.6-node3/data,这个 目录就是你在 zoo.cfg 中配置的 dataDir 的目录,建好之后,在里面新建一个文件,文件 名叫 myid,里面存放的内容就是服务器的 id,就是 server.1=localhost:2888:3888 当中的 id, 就是 1,那么对应的每个服务器节点都应该做类似的操作 节点一操作如下:

创建节点一的data文件

mkdir /usr/local/zookeeper/zookeeper-3.4.6-node1/data
cd /usr/local/zookeeper/zookeeper-3.4.6-node1/data

创建myid文件写入1

echo 1 > myid

其他节点按此流程写入不同的myid文件

节点2

echo 2 > myid

节点三

echo 1 > myid

5.3 启动节点

 启动完成一会查看bin文件的日志

tail -111f zookeeper.out

发现第一个节点启动报错,这个是链接其他节点失败,启动其他节点

 启动第二个节点日志报错

这个是端口号被占用,修改zoo.cfg文件,节点1占用了2181节点2 就改为2182了

#clientPort=2181
clientPort=2182

 查看每个节点状态的命令,在bin目录下

./zkServer.sh status

 如上图节点2为leader节点,其他两个节点为follower节点,如此则配置成功

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

余生大大

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值