1.在启动 hadoop 时提示 “Could not resolve hostname”
首先应该立即停止启动(ctrl+c),之后打开~./bashrc,在这里面添加如下代码:
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
一定注意,第一行/usr/local/hadoop表示hadoop的路径,一定要使用自己系统hadoop的路径。
之后在终端上进入/usr/local/hadoop,执行如下几步:
cd /usr/local/hadoop #进入hadoop的路径
source ~/.bashrc #此步骤可使刚才改变的变量生效
./sbin/start-dfs.sh #重新启动hadoop
2.在启动 hadoop 时提示 “mkdir: Call From hadoop232/192.168.153.128 to localhost:9000 failed on connection exception: java.net.ConnectException: 拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused”
启动hadoop时出现如下错误
可在终端输入如下代码:
cd /usr/local/hadoop #进入hadoop的路径
./sbin/stop-dfs.sh #关闭hadoop
rm -r ./tmp #删除tmp文件,同时删除HDFS中的全部数据
./bin/hdfs namenode -format #格式化NameNode
./sbin/start-dfs.sh #重新启动hadoop
在配置完hadoop后可以在hadoop路径下输入jps来判断是否配置成功,若出现下面四项,那么说明配置成功。
若没有DataNode或NameNode说明配置失败,可以重新进行配置。