1、将下载好的hadoop-2.6.5.tar.gz安装包,上传至hadoop001节点中的/usr/hadoop/app目录下。
2、解压安装包:tar zxvf hadoop-2.6.5.tar.gz。
3、重命名解压文件目录:mv hadoop-2.6.5 hadoop
4、删除hadoop-2.6.5.tar.gz
5.配置hadoop家目录下的.bash_profile
生效.bash_profile配置
5.配置hadoop-env.sh
6.配置core-site.xml
7.配置hdfs-site.xml
8.配置 slave
9. 向其他节点分发hadoop安装包:
10. 启动所有节点上面的Zookeeper进程
runRemoteCmd.sh "/usr/hadoop/app/zookeeper/bin/zkServer.sh start" zookeeper
11.启动所有节点上面的journalnode进程
runRemoteCmd.sh "/usr/hadoop/app/hadoop/sbin/hadoop-daemon.sh start journalnode" all
12.在hadoop001(主节点)上执行格式化
切换到/usr/hadoop/app/hadoop/
namenode格式化(bin/hdfs namenode -format)
格式化高可用(bin/hdfs zkfc -formatZK)
启动namenode
13.接下来,需要在hadoop002(备节点)上执行数据同步(bin/hdfs namenode -bootstrapStandby)
14.hadoop002同步完数据后,紧接着在hadoop001节点上,按下ctrl+c来结束namenode进程。 然后关闭所有节点上面的journalnode进程(runRemoteCmd.sh "/usr/hadoop/app/hadoop/sbin/hadoop-daemon.sh stop journalnode" all)
如果上面操作没有问题,我们可以一键启动hdfs所有相关进程
验证是否启动成功
出现上面信息,说明启动成功。
使用bin/hdfs haadmin -failover nameService2 nameService1命令,将hadoop001切换成active, hadoop2切换成standby,其中,nameService1、nameService2是在hdfs-site.xml文件中的dfs.ha.namenodes. clusterl指定的
测试hdfs