1、localhost: Error: JAVA_HOME is not set.
这个很明显是因为环境变量没设置好,分两种情况,第一:没有设置;第二:设置了,没有起作用,我用source了,好像依然陪到了这个问题,最后,重启解决。
2、INFO ipc.Client: Retrying connect to server: localhost/192.168.128.131:9000. Already tried 1time(s)
一般是namenode没有启动,所以解决的方法如下:先stop-all.sh,然后hadoop namenode -format一下。再启动应该就没问题了。
3、如果在配置的过程中遇到了 not premission等提示,典型的权限问题。
4、在运行wordcount程序的时候,发生错误
这是因为我先前在hadoop上创建了两个文件,一个是input,一个output,运行程序的时候,提示output文件已经存在,这个很简单,直接把自己创建的那个删除就OK了。
5、Exception in thread "main" java.io.IOException: Error opening job jar: hadoop-mapred-examples-0.21.0.jar
at org.apache.hadoop.util.RunJar.main(RunJar.java:90)
Caused by: java.util.zip.ZipException: error in opening zip file
at java.util.zip.ZipFile.open(Native Method)
at java.util.zip.ZipFile.<init>(ZipFile.java:127)
at java.util.jar.JarFile.<init>(JarFile.java:135)
at java.util.jar.JarFile.<init>(JarFile.java:72)
at org.apache.hadoop.util.RunJar.main(RunJar.java:88)
这是因为Hadoop找不到hadoop-mapred-examples-0.21.0.jar文件,解决方法为到/etc/profile中添加$HADOOP_HOME,或者将当前路径定位到jar包所在文件夹,再运行
6、安装hadoop-1.0.1后,执行命令出现$HADOOP_HOME is deprecated.
这不是错误,可以修改bin/hadoop-config.sh,注释掉$HADOOP_HOME is deprecated的内容
总结一下:1、对Linux掌握不熟练;2、应该掌握一门脚本。
加油。呵呵