1、
因为在hadoop/etc中当时复制了一份hadoop,所以在执行start-dfs.sh时会出现Unable to load native-hadoop library for your platform... using builtin-java classes where applicable和Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.的错误
刚开始以为是32位和64位的原因就重新编译了,按照下面这篇博客
http://blog.csdn.net/ggz631047367/article/details/42460589
结果还是不对,
最后发现在执行start-dfs.sh时加上config参数 start-all.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo 表示是该路径下的 hadoop中的文件
执行成功。
在停止服务的时候先停止yarn, 执行stop-yarn.sh 再停止stop-dfs.sh
2、发现9000连接不了,运行hadoop是出现Master的9000端口拒绝访问的情况