在第一台上(没有配置zookeeper的)
cd $HADOOP_HOME
然后将
Cp -r hadoop hadoop-full
进入hadoop
修改hdfs.site
Ha模式
配置ha模式的
没有secondary的配置,所以删除
配置journalnode的配置
配置代理类和实现方式免密钥
配置第四种配置
配置coresite.xml
配置地址
配置zookeeper的队列
第一台上边配置完了之后,将第一台上的分别分发给其他的几台虚拟机
Scp core-site.xml hdfs-site.xml node02:`pwd`
部署的前提是要启动journalnode。三台都要启动
从第一台格式化:
hdfs namenode -format
在第二台与第一台进程同步之前,启动第一台的namenode
在第二台上执行:
hdfs namenode -bootstrapStandby
想要启动start-dfs,就要启动zkfc,zkfc依赖于zookeeper,因此要对zookeeper做一次格式化
调出zkfc的客户端
Zkcli.sh
在第一台进行格式化:
Hdfs zkfc -formatZK
这下就可以启动dfs了:
Start-dfs.sh