Zookeeper集群搭建

三台服务器分别是
192.1682.158
192.1682.152
192.1682.150
然后在三台服务器分别安装zookeeper

官网下载地址:http://mirrors.hust.edu.cn/apache/zookeeper/

wget http://mirrors.hust.edu.cn/apache/zookeeper/stable/zookeeper-3.4.12.tar.gz

解压到user/local下

tar -zxvf zookeeper-3.4.12.tar.gz -C /usr/local
mv /usr/local/zookeeper-3.4.12 /usr/local/zookeeper

修改配置文件

cp /usr/local/zookeeper/conf/zoo_sample.cfg /usr/local/zookeeper/conf/zoo.cfg
vim /usr/local/zookeeper/conf/zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper/data
clientPort=2181
server.1=192.168.2.158:2888:3888
server.2=192.168.2.152:2888:3888
server.3=192.168.2.150:2888:3888

创建数据存储目录

mkdir -p /usr/local/zookeeper/data

创建myid文件, id 与 zoo.cfg 中的序号对应

#在192.168.2.158机器上执行
echo 1 > /usr/local/zookeeper/data/zookeeper_server.pid
#在192.168.2.152机器上执行
echo 2 > /usr/local/zookeeper/data/zookeeper_server.pid
#在192.168.2.150机器上执行
echo 3 > /usr/local/zookeeper/data/zookeeper_server.pid

配置环境变量

vim /etc/profile

在最后加上

export ZK_HOME=/usr/local/zookeeper
export PATH=$ZK_HOME/bin:$PATH

分别启动

zkServer.sh start
13034051-7b9bc4c1204bd5c0.png
image.png

查看状态

zkServer.sh status
13034051-93e08e94c45974f3.png
image.png

13034051-08ef84639c924ba7.png
image.png

13034051-7503c1d21aceba35.png
image.png

ZooKeeper角色


13034051-393e0f1c5c56bc3b.png
image.png

配置说明

参数说明
tickTime这个时间是作为Zookeeper服务器之间或者客户端与服务器之间维持心跳的时间间隔,也就是每个tickTime时间就会发送一下心跳。
initLimit这个配置项是用来配置zookeeper接受客户端的(这里所说的客户端不是用户连接Zookeeper服务器的客户端而是Zookeeper服务器集群中连接到Leader的Follower服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过10个心跳的时间(也就是tickTime)长度后Zookeeper服务器还没有接到客户端的返回信息,那么表明这个客户端连接失败。总时间长度就是10*2000=20秒。
syncLimit这个配置项标示Leader与Follower之间发送消息、请求和应答时间长度,最长不能超过多少个tickTime的时间长度,总的时间长度就是5*2000=10秒。
dataDirZookeeper保存数据的目录,默认情况下,Zookeeper将数据的日志文件也保存在这里。
dataLogDir短文本
clientPort这个端口就是客户端连接Zookeeper服务器的端口。Zookeeper会监听这个端口,接受客户端的访问请求。
server.A=B:C:D其中A是一个数字,标示这是第几号服务器;B是这个服务器的ip地址;C标示的是这个服务器与集群中的Leader服务器交换信息的端口;D标示的是万一集群中Leader服务器挂了,需要一个端口来进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于B都是一样,所以不同的Zookeeper实例通信端口号不能一样,所以要给他们分配不同的端口号。
myid集群模式下配置一个文件myid,这个文件在daraDir目录下,这个文件里面就有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。
13034051-cda32768176c77ad.png
image.png

清理文件
注意:zookeeper不会主动的清除旧的快照和日志文件
第一种:我们可以通过命令去定期的清理。

#!/bin/bash 
 
#snapshot file dir 
dataDir=/usr/local/zookeeper/data/version-2

#Leave 66 files 
count=66 
count=$[$count+1] 
ls -t $dataDir/snapshot.* | tail -n +$count | xargs rm -f 

#以上这个脚本定义了删除对应目录中的文件,保留最新的66个文件,可以将他写到crontab中,设置为每天凌晨2点执行一次就可以了。

其他方法:

第二种:使用ZK的工具类PurgeTxnLog,它的实现了一种简单的历史文件清理策略,可以在这里看一下他的使用方法 http://zookeeper.apache.org/doc/r3.4.6/zookeeperAdmin.html

第三种:对于上面这个执行,ZK自己已经写好了脚本,在bin/zkCleanup.sh中,所以直接使用这个脚本也是可以执行清理工作的。

第四种:从3.4.0开始,zookeeper提供了自动清理snapshot和事务日志的功能,通过配置 autopurge.snapRetainCount 和 autopurge.purgeInterval 这两个参数能够实现定时清理了。这两个参数都是在zoo.cfg中配置的:

autopurge.purgeInterval 这个参数指定了清理频率,单位是小时,需要填写一个1或更大的整数,默认是0,表示不开启自己清理功能。
autopurge.snapRetainCount 这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。

推荐使用第一种方法,对于运维人员来说,将日志清理工作独立出来,便于统一管理也更可控。毕竟zk自带的一些工具并不怎么给力。

几个zNode节点操作的api简单介绍:

 create /parh data      创建一个名为/path的zNode节点,并包含数据data

    delete /path          删除名为/path的zNode节点

    exists /path           检查是否存在名为/path的zNode节点

    setData /path data        设置名为/path的zNode的数据为data

    getData  /path         返回名为/path的zNode节点的数据信息

    getChildren /path      返回所有/path节点的所有子节点列表

zNode节点还有不同的类型,持久(persistent)节点和临时(ephemeral)节点。持久的zNode,如/path,只能通过调用delete来进行删除,而临时的zNode则与之相反,当创建该节点的客户端崩溃或者关闭了与ZooKeeper服务器的连接时候,这个临时zNode节点就会被删除了。其中临时节点可用于实现分布式锁。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值