Hadoo步骤四:安装zookepeer集群

1 下载文件,解压,重命名

Index of /zookeeper/zookeeper-3.8.1 (apache.org)https://downloads.apache.org/zookeeper/zookeeper-3.8.1/

[root@master servers]# tar -zxvf  /export/software/apache-zookeeper-3.8.1-bin.tar.gz -C  /export/servers/;mv /export/servers/apache-zookeeper-3.8.1-bin/ /export/servers/zookeeper;ls /export/servers/;

2 修改文件用户属性

[root@master servers]# chown -R hadoop:hadoop /export/servers/zookeeper;

3 编辑环境变量

(1) 编辑profile文件,让其环境变量生效

[root@master servers]# vi /etc/profile;source /etc/profile;

添加以下内容:

export ZOOKEEPER_HOME=/export/servers/zookeeper

export PATH=$PATH:$ZOOKEEPER_HOME/bin


(2) 编辑zoo.cfg文件,修改zookeeper参数

[root@master servers]# cd /export/servers/zookeeper/conf;mv zoo_sample.cfg zoo.cfg;vi zoo.cfg;
修改的内容:
#tickTime:CS通信心跳时间
tickTime=2000  

#initLimit:LF初始通信时限
initLimit=5  

#syncLimit:LF同步通信时限

syncLimit=2

#dataDir:数据文件目录
dataDir=/export/servers/zookeeper/data

#clientPort:客户端连接端口
clientPort=2181
以下修改内容:启动日志自动清理功能
autopurge.snapRetainCount:这个参数指定了清理频率,单位是小时,需要填写一个1或更大的整数,默认是0,表示不开启自动清理
autopurge.purgeInterval 这个参数和前面的参数搭配使用,这个参数指定了需要保留的文件数目,默认是保留3个

# The number of snapshost to retain in dataDir

autopurge.snapRetainCount = 3
# Purge task intervial in hours
# Set to "0" to disable auto purge feature
autopurge.purgeInterval=24
​------------------------------------------------------------------------------------------------------------------------
添加以下内容:

#服务器名称与地址:集群信息(服务器编号,服务器地址,LF通信端口,选举端口)
dataLogir/export/servers/zookeeper/log
server.1=192.168.10.156:2888:3888
server.2=192.168.10.157:2888:3888
server.3=192.168.10.158:2888:3888

(3) 配置myid文件,修改其内容

-----------------------新建两个目录,并创建文件myid,且修改其内容(master)------------------
[root@master servers]#
mkdir /export/servers/zookeeper/{data,log};ls /export/servers/zookeeper; cd /export/servers/zookeeper/data/;echo "1"> myid;cat myid;

4 master同步到其它节点(slave节点),并配置好profile

-----将zookpeer同步到slave1
[hadoop@master data]$ cd /export/servers;sudo scp -r zookeeper slave1:/export/servers;sudo scp /etc/profile slave1:/etc/;
-----将zookpeer同步到slave2
[haoop@master data]$ cd /export/servers;sudo scp -r zookeeper slave2:/export/servers;sudo scp /etc/profile slave2:/etc/;

 

5 配置slave子节点的myid文件 启动slave的profiel文件 修好文件用户属性

---------slave1
[root@slave1 /]$ source /etc/profile;sudo chown -R hadoop:hadoop /export/servers/zookeeper;sudo cd /export/servers/zookeeper/data/;sudo echo "2"> myid;cat myid;

---------slave1
 [root@slave2 /]$  source /etc/profile;sudo chown -R hadoop:hadoop /export/servers/zookeeper;sudo cd /export/servers/zookeeper/data/;sudo echo "3"> myid;cat myid;

5 启动,停止,查看(全节点,且必须是hadoop用户)

启动ZOOKEEPER,先对头节点启动,后slavee节点启动
[hadoop@master /]$ zkServer.sh start;ls;zkServer.sh status;
停止ZOOKEEPER
[hadoop@master /]$ zkServer.sh stop;ls;zkServer.sh status;
查看ZOOKEEPER
[hadoop@master /]$ zkServer.sh status;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值