启动一个,另外一个就自动退出了。。
后来发现是我配置文件的问题:
hdfs-site.xml 里缺少如下配置,这是关于HA的
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property
再保证所有journalnode都启动的前提下:
a> 在任意一个namenode上运行格式化 hdfs namenode -format
b> 把格式化好一会的数据,我这里的路径是/opt/hadoop2.5
这里的数据路径文件具体是定义在core-site.xml里的
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.5</value>
</property>
c> 启动 刚才格式化好的那台namenode主机,并且在另外一台接受copy文件的namenode主机上执行
hdfs namenode -bootstrapStandby
d> hdfs zkfc -formatZK
e>start-dfs.sh
3.补充一下,namenode 主机和备机上的host文件里一定要有所有节点的主机解析记录,同时要保证namenode两台主机都可以免密码访问所有的节点,主要是两台都可以。。。。不然。。。就悲剧了。。。