1、在集群上的主节点/usr/local/hadoop/bin目录下,执行./start-dfs.sh命令后,只有主节点下的namenode进行启动,分支节点中的datanode没有正常启动
解决方式:
1)删除hadoop目录中的tmp目录文件及log目录文件(集群中所有节点)
2)在bin目录中重新格式化hadoop namenode -format
3)重新启动hdfs及yarn进程
执行./start-all.sh即可
2、启动zookeeper失败,如下所示:
解决方式:
1)删除data目录下的version-2文件夹及,datalog目录下的所有文件
dataDir=/usr/local/zookeeper/data
dataLogDir=/usr/local/zookeeper/datalog
2)重新启动即可
3、启动hbase后,分支节点没有正常启动
解决方式:
1)查看集群内所有系统时间是否一致,确保系统时间都一致,重新启动;
2)若第一种方式还不能解决问题的话,修改hbase-site.xml配置文件的连接时间,增加连接时长
<property>
<name>hbase.master.maxclockskew</name>
<value>150000</value>
</property>
3)若以上的方法还是不能解决问题的话,查看/etc/hosts文件夹中,是否已经删除127.0.0.1 主机名,
若没有删除的话,都删除。如下所示,删除下列两行
127.0.0.1 localhost localhost.localdomain localhosts4.localdomain4
::1 localhost localhost.localhost.localdomain localhost6 localhost6.localdomain6