1. Zookeeper是什么
ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,ZooKeeper是以Fast Paxos算法为基础,实现同步服务,配置维护和命名服务等分布式应用。
Zookeeper 分布式服务框架是 Apache Hadoop 的一个子项目,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步服务、集群管理、分布式应用配置项的管理等。核心词就是一个,协调。
2. 下载Zookeeper
Zookeeper下载地址:Zookeeper3.4.6版本下载地址https://archive.apache.org/dist/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz
2.1 创建文件夹并移至此目录
mkdir /usr/local/zookeeper
cd /usr/local/zookeeper/
2.2 在线下载
wget https://archive.apache.org/dist/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz
等待下载完成
2.3 解压压缩包
tar zxvf zookeeper-3.4.6.tar.gz
3. 单机部署
3.1 配置zoo.cfg文件
Zookeeper 在启动时会找zoo.cfg这个文件作为默认配置文件。而zookeeper-3.4.6/conf 下的zoo_sample.cfg文件, 这个文件里面配置了监听客户端连接的端口等一些信息,我们将此文件复制出一份zoo.cfg文件
移动至配置文件目录
cd /usr/local/zookeeper/zookeeper-3.4.6/conf/
复制出zoo.cfg文件
cp zoo_sample.cfg zoo.cfg
3.2 启动zookeeper
移动到zookeeper的bin目录
cd /usr/local/zookeeper/zookeeper-3.4.6/bin/
启动命令
./zkServer.sh start
查看是否启动成功
查看zookeeper进程
ps -ef|grep zookeeper
查看端口是否被占用
netstat -anp |grep 2181
状态为LISTEM则表示已经被占用
4. 集群部署
4.1 集群部署的概念
ZooKeeper的集群模式下,多个Zookeeper服务器在工作前会选举出一个Leader,在接下来的工作中这个被选举出来的Leader死了,而剩下的Zookeeper服务器会知道这个Leader死掉了, 在活着的Zookeeper集群中会继续选出一个Leader,选举出Leader的目的是为了可以在分布式的环境中保证数据的一致性。 由于ZooKeeper集群中,会有一个Leader负责管理和协调其他集群服务器,因此服务器的数量通常都是单数,例如3,5,7...等,这样2n+1的数量的服务器就可以允许最多n台服务器的失效。
4.2 集群部署配置文件
tickTime=2000
dataDir=/usr/local/zookeeper/zookeeper-3.4.6/data
clientPort=2181
initLimit=5
syncLimit=2
server.1=127.0.0.1:2888:3888
server.2=127.0.0.1:2888:3888
server.3=127.0.0.1:2888:3888
参数说明
tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳
dataDir:顾名思义就是 Zookeeper 保存数据的目录,默认情况下,Zookeeper 将写数据的日志文件也保存在这个目录里
clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。
initLimit:配置 Zookeeper 接受客户端(指的是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。集群包含多台server, 其中一台为leader, 集群中其余的server为follower,follower和leader之间的最长心跳时间,如该参数设置为5,当已经超过 5 个心跳时间(即 tickTime),总时间长度是 5*2000=10 秒后 Zookeeper 服务器没有收到客户端的返回信息,那么表明这个客户端连接失败。
syncLimit:这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是 2*2000=4 秒
server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于 B 都是一样,所以不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号
4.3 创建myid文件
集群模式下还要配置一个文件 myid,这个文件在上面配置的dataDir 目录下,这个文件里面就只有一个数据就是A (服务器对应的编号) 的值,Zookeeper 启动时会读取这个文件,拿到里面的数据与 zoo.cfg 里面的配置信息比较从而判断到底是那个 server,如上图写1,2,3即可
4.4 启动模式
启动方式跟之前单机启动一样,不过需要在集群所有节点上进行启动:
./zkServer.sh start
5. 单机集群部署
5.1 复制多份zookeeper
不能直接cp命令,因为复制文件下有其他文件所以需要cp -r,命令如下
cp -r zookeeper-3.4.6 zookeeper-3.4.6-node1
复制出三份节点
5.1 修改三份zoo.cfg
移动至各自节点的conf目录下
cd /usr/local/zookeeper/zookeeper-3.4.6-node1/conf/
编辑zoo.cfg
vim zoo.cfg
zookeeper-3.4.6-node1
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper/zookeeper-3.4.6-node1/data
clientPort=2181
server.1=localhost:2887:3887
server.2=localhost:2888:3888
server.3=localhost:2889:3889
zookeeper-3.4.6-node2
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper/zookeeper-3.4.6-node2/data
clientPort=2181
server.1=localhost:2887:3887
server.2=localhost:2888:3888
server.3=localhost:2889:3889
zookeeper-3.4.6-node3
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper/zookeeper-3.4.6-node3/data
clientPort=2181
server.1=localhost:2887:3887
server.2=localhost:2888:3888
server.3=localhost:2889:3889
由于三个服务都在同一台服务器上,因此这里要保证地址的唯一性,因此要特别注意IP地址和端口号不要互相冲突,IP相同,端口一定不能相同,以免影响程序的正确执行。
5.2 创建myid文件
然后是最重要的步骤,一定不能忘了。 去各个 ZooKeeper节点,新建目录 dataDir=/usr/local/zookeeper/zookeeper-3.4.6-node3/data,这个 目录就是你在 zoo.cfg 中配置的 dataDir 的目录,建好之后,在里面新建一个文件,文件 名叫 myid,里面存放的内容就是服务器的 id,就是 server.1=localhost:2888:3888 当中的 id, 就是 1,那么对应的每个服务器节点都应该做类似的操作 节点一操作如下:
创建节点一的data文件
mkdir /usr/local/zookeeper/zookeeper-3.4.6-node1/data
cd /usr/local/zookeeper/zookeeper-3.4.6-node1/data
创建myid文件写入1
echo 1 > myid
其他节点按此流程写入不同的myid文件
节点2
echo 2 > myid
节点三
echo 1 > myid
5.3 启动节点
启动完成一会查看bin文件的日志
tail -111f zookeeper.out
发现第一个节点启动报错,这个是链接其他节点失败,启动其他节点
启动第二个节点日志报错
这个是端口号被占用,修改zoo.cfg文件,节点1占用了2181节点2 就改为2182了
#clientPort=2181
clientPort=2182
查看每个节点状态的命令,在bin目录下
./zkServer.sh status
如上图节点2为leader节点,其他两个节点为follower节点,如此则配置成功