1、hadoop节点的本地工作目录访问异常(权限)
sudo chown -R administor:administor dfs/
namenode在刚刚启动的时候处于安全模式不一定是异常,但是如果启动完成
之后一直不退出安全模式,就有问题,可以用以下指令尝试手动退出
hdfs namenode -safemode leave
如果退出不成功,可以查看日志信息或者关闭重启
3、start-dfs.sh后,直接上传文件,发现上传失败抛出异常
排查异常的步骤:
--应该用jps查看一下进程是否正常:namenode datanode
secondarynamenode
如果相关进程不存在,查看相关进程的日志文件来分析错误
--如果进程都存在,还存在问题,有可能是进程间的集群协调有问题
hdfs dfsadmin -report 来查看集群的信息
--实在找不到线索,删除tmp目录,然后重新格式化,启动
hadoop namenode -format
4、在Eclipse上传文件失败Permission denied:user=**等
应该是hdfs-site.xml文件里修改吧
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
hdfs dfsadmin -refreshNodes
或者
hdfs fs -chmod 777 /tmp