完全分布式安装
- 一、集群规划
- 二、安装Zookeeper
- (1)解压zookeeper安装包到/opt/module/目录下
- (2)在/opt/module/zookeeper-3.4.10/这个目录下创建zkdata
- (3)重命名/opt/module/zookeeper-3.4.10/conf这个目录下的zoo_sample.cfg为zoo.cfg
- (4)配置zoo.cfg 文件
- (5)创建myid文件编写内容
- (6)zookeeper 日志配置
- (7)使用scp把node1节点上的Zookeeper分发到node2 node3 两台节点上
- (8)修改node2 node3 节点的myid
- (9)分别启动node1 node2 node3 节点上的zookeeper
- (10)分别查看node1 node2 node3 节点上zookeeper的运行状态
一、集群规划
在node1 node2 node3 三个节点服务器上部署Zookeeper
[victor@node1 ~]# vim /etc/hosts
192.168.2.101 node1
192.168.2.102 node2
192.168.2.103 node3
提示:三台机器都配置ip映射
二、安装Zookeeper
在node1上安装好Zookeeper,向node2 node3 做scp 分发,在node2 和 node3 上修改myid文件并配置环境变量
(1)解压zookeeper安装包到/opt/module/目录下
[victor@node1 software]$ tar -xzvf zookeeper-3.4.10.tar.gz -C /opt/module/
(2)在/opt/module/zookeeper-3.4.10/这个目录下创建zkdata
[victor@node1 zookeeper-3.4.10]$ cd /opt/module/zookeeper-3.4.10/
[victor@node1 zookeeper-3.4.10]$ pwd
/opt/module/zookeeper-3.4.10
[victor@node1 zookeeper-3.4.10]$ mkdir zkdata
(3)重命名/opt/module/zookeeper-3.4.10/conf这个目录下的zoo_sample.cfg为zoo.cfg
[victor@node1 ~]$ cd /opt/module/zookeeper-3.4.10/conf/
[victor@node1 conf]$ pwd
/opt/module/zookeeper-3.4.10/conf
[victor@node1 conf]$ mv zoo_sample.cfg zoo.cfg
(4)配置zoo.cfg 文件
[victor@node1 conf]$ vim zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/opt/module/zookeeper-3.4.10/zkdata
dataLogDir=/opt/module/zookeeper-3.4.10/zkdata/logs
clientPort=2181
server.1=node1:2888:3888
server.2=node2:2888:3888
server.3=node3:2888:3888
maxClientCnxns=300
尖叫提示:maxClientCnxns默认连接最多60,超过设置的连接数会报Too many connections from 错误
配置参数解读
Server.A=B:C:D。
A是一个数字,表示这个是第几号服务器;
B是这个服务器的ip地址;
C是这个服务器与集群中的Leader服务器交换信息的端口;
D是万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
集群模式下配置一个文件myid,这个文件在dataDir目录下,这个文件里面有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。
(5)创建myid文件编写内容
[victor@node1 zookeeper-3.4.10]$ cd /opt/module/zookeeper-3.4.10/zkdata/
[victor@node1 zkdata]$ touch myid
[victor@node1 zkdata]$ echo 1 > myid
[victor@node1 zkdata]$ cat myid
1
(6)zookeeper 日志配置
修改log4j.properties
[victor@node1 conf]$ vim log4j.properties
zookeeper.root.logger=INFO,ROLLINGFILE
zookeeper.log.file=zookeeper.log
#按照日期每天输出logs
log4j.appender.ROLLINGFILE=org.apache.log4j.DailyRollingFileAppender
#Max log file size of 10MB
#log4j.appender.ROLLINGFILE.MaxFileSize=10MB (注释)
#设置滚动日志最多为10个
#log4j.appender.ROLLINGFILE.MaxBackupIndex=10 (注释)
修改 zoo.cfg
[victor@node1 conf]$ vim zoo.cfg
dataLogDir=/opt/module/zookeeper-3.4.10/zkdata/logs
尖叫提示:zookeeper的事务日志通过zoo.cfg文件中的dataLogDir配置项配置
修改zkEnv.sh
[victor@node1 bin]$ vi zkEnv.sh
if [ "x${ZOO_LOG_DIR}" = "x" ]
then
#日志输出路径 不需mkdir zookeeper启动时自动创建
ZOO_LOG_DIR="/opt/module/zookeeper/zkdata/logs"
fi
if [ "x${ZOO_LOG4J_PROP}" = "x" ]
then
ZOO_LOG4J_PROP="INFO,ROLLINGFILE"
fi
尖叫提示:研究bin/zkServer.sh和conf/log4j.properties,发现主要修改zkServer.sh的ZOO_LOG_DIR和ZOO_LOG4J_PROP这两个环境变量,而zkServer.sh会加载zkEnv.sh,因此,其实修改下bin/zkEnv.sh就可以了,日志输出的格式为:zookeeper.log前一天日志的输出格式为:zookeeper.log.201*-01-03
(7)使用scp把node1节点上的Zookeeper分发到node2 node3 两台节点上
[victor@node1 ~]$ scp -r /opt/module/zookeeper-3.4.10 root@node2:/opt/module/
[victor@node1 ~]$ scp -r /opt/module/zookeeper-3.4.10 root@node3:/opt/module/
(8)修改node2 node3 节点的myid
[victor@node2 ~]$ echo 2 > /opt/module/zookeeper-3.4.10/zkdata/myid
[victor@node2 zkdata]$ cat myid
2
[victor@node3 ~]$ echo 3 > /opt/module/zookeeper-3.4.10/zkdata/myid
[victor@node3 zkdata]$ cat myid
3
(9)分别启动node1 node2 node3 节点上的zookeeper
[victor@node1 zookeeper-3.4.10]$ bin/zkServer.sh start
[victor@node2 zookeeper-3.4.10]$ bin/zkServer.sh start
[victor@node3 zookeeper-3.4.10]$ bin/zkServer.sh start
尖叫提示:当启动第一台时会报This ZooKeeper instance is not currently serving requests 错误提示,这是因为集群里的结点只剩下一台,或者不足半数时,就会出现这个错误提示,根据zookeeper每次write请求,都要写到log日志,并刷到磁盘里的特性,zookeeper最好用本地磁盘,且磁盘IO略好。
(10)分别查看node1 node2 node3 节点上zookeeper的运行状态
node1
[victor@node1 zookeeper-3.4.10]$ bin/zkServer.sh status
JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: follower
node2
[victor@node2 zookeeper-3.4.10]$ bin/zkServer.sh status
JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: leader
node3
[victor@node3 zookeeper-3.4.10]$ bin/zkServer.sh status
JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: follower