1、下载zookeeper3.4.6 ------点击超链接
2、上传到集群
3、然后解压
$ tar -zxvf zookeeper-3.4.6.tar.gz
4、创建软连接
$ ln -s /home/betty/soft/zookeeper-3.4.6 /home/betty/soft/zoo
5、将解压后的zookeeper发送给其他机器
$ scp -r /home/betty/soft/zookeeper-3.4.6 betty@dog2:/home/betty/soft/
$ scp -r /home/betty/soft/zookeeper-3.4.6 betty@dog3:/home/betty/soft/
6、 配置环境变量
$ vi ~/.bashrc
【JAVA_HOME=/home/betty/soft/jdk
HADOOP_HOME=/home/betty/soft/hadoop
ZOOKEEPER_HOME=/home/betty/soft/zoo
PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin
export JAVA_HOME PATH
】
7、将配置环境变量之后的.bashrc文件发送给其他机器。
$ scp ~/.bashrc betty@dog2:~/.bashrc
$ scp ~/.bashrc betty@dog3:~/.bashrc
并且使环境变量生效------------每台机器都要执行
$ source ~/.bashrc
8、配置zoo.cfg
在/home/betty/soft/zoo/conf目录下
$ cp zoo_sample.cfg zoo.cfg
修改zoo.cfg文件
$ vi /home/betty/soft/zoo/conf/zoo.cfg
配置内容为:
tickTime=2000
dataDir=/home/hyxy/soft/tmp/zookeeper
clientPort=2181
initLimit=5
syncLimit=2
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888
9、 发送给另外两台机器。
$ scp zoo.cfg betty@dog2/home/betty/soft/zoo/conf/zoo.cfg
$ scp zoo.cfg betty@dog3:/home/betty/soft/zoo/conf/zoo.cfg
10、每台机器运行一次
$ zkServer.sh start
如果无法启动则执行11步。
11、 在dataDir=/home/betty/soft/tmp/zookeeper下执行------三台机器都需要执行。
====>dog1 $ echo "1" >> myid ------- 注意1是配置文件中给的id server.1=dog1:2888:3888
====>dog2 $ echo "2" >> myid
====>dog3 $ echo "3" >> myid
12、再次在每台机器上运行
$ zkServer.sh start
并且验证是否可用
$ zkCli.sh
13、复制一份HA配置文件做自动容灾(etc/hadoop) ----------所有机器都需要执行下面操作。
$ cp -r HA_hadoop auto_hadoop
$ rm hadoop --------------删除软连接。
$ ln -s auto_hadoop hadoop --------------重新创建指向auto_hadoop的软连接。
14、修改配置文件。
hdfs-site.xml
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
$ vim /home/betty/soft/hadoop/etc/hadoop/hdfs-site.xml
core-site.xml
<property>
<name>ha.zookeeper.quorum</name>
<value>dog1:2181,dgo2:2181,dog3:2181</value>
</property>
$ vim /home/betty/soft/hadoop/etc/hadoop/core-site.xml
15、 发送给其他机器
$ scp hdfs-site.xml betty@dog2:/home/betty/soft/hadoop/etc/hadoop/hdfs-site.xml
$ scp hdfs-site.xml betty@dog3:/home/betty/soft/hadoop/etc/hadoop/hdfs-site.xml
$ scp core-site.xml betty@dog2:/home/betty/soft/hadoop/etc/hadoop/core-site.xml
$ scp core-site.xml betty@dog3:/home/betty/soft/hadoop/etc/hadoop/core-site.xml
16、 在一台namenode所在节点执行如下命令
$ hdfs zkfc -formatZK
17、查看是否全部启动
【8240 Jps
7539 QuorumPeerMain
8164 DFSZKFailoverController
7974 JournalNode
7788 DataNode
7678 NameNode】
18、查看50070端口,杀死其中活跃的节点,查看备用节点是否转为活跃