执行start-all.sh的时候发现JPS一下namenode没有启动
每次开机都得重新格式化一下namenode才可以
其实问题就出在tmp文件,默认的tmp文件每次重新开机会被清空,与此同时namenode的格式化信息就会丢失,
于是我们得重新配置一个tmp文件目录
注意:我的用户是master所以目录是/home/master/hadoop_tmp
OK了,重新格式化Namenode
hadoop namenode -format /hdfs namenode -format
然后启动hadoop
每次开机都得重新格式化一下namenode才可以
其实问题就出在tmp文件,默认的tmp文件每次重新开机会被清空,与此同时namenode的格式化信息就会丢失,
于是我们得重新配置一个tmp文件目录
每一次从新格式化之前都要先删除tmp,因为里面的data的clusterID在格式化时
hdfs namenode -format
是不变的而name中的clusterID格式化的时候会改变,他们俩clusterID不一致就会导致错误
<span style="font-size:18px;"> <property>
<name>hadoop.tmp.dir</name>
<value>/home/master/tmp</value>
</property>
</span>
注意:我的用户是master所以目录是/home/master/hadoop_tmp
OK了,重新格式化Namenode
hadoop namenode -format /hdfs namenode -format
然后启动hadoop
start-all.sh
or
start-dfs.sh
start-yarn.sh