第五章 Hadoop常见错误及解决方案

  • 导包容易出错。尤其 Text 和 CombineTextInputFormat。
  • Mapper 中第一个输入的参数必须是 LongWritable 或者 NullWritable,不可以是 IntWritable.报的错误是类型转换异常。
  • java.lang.Exception: java.io.IOException: Illegal partition for 13926435656 (4),说明 Partition和 ReduceTask 个数没对上,调整 ReduceTask 个数。
  • 如果分区数不是 1,但是 reducetask 为 1,是否执行分区过程。答案是:不执行分区过程。因为在 MapTask 的源码中,执行分区的前提是先判断 ReduceNum 个数是否大于 1。不大于1 肯定不执行。
  • 在 Windows 环境编译的 jar 包导入到 Linux 环境中运行,hadoop  jar  wc.jar  com.atguigu.mapreduce.wordcount.WordCountDriver  /user/atguigu/ /user/atguigu/output
  1. 报如下错误:Exception  in  thread  "main" java.lang.UnsupportedClassVersionError:com/atguigu/mapreduce/wordcount/WordCountDriver : Unsupported major.minor version 52.0                                                                          原因是 Windows 环境用的 jdk1.7,Linux 环境用的 jdk1.8。解决方案:统一 jdk 版本。
  • 缓存 pd.txt 小文件案例中,报找不到 pd.txt 文件。原因:大部分为路径书写错误。还有就是要检查 pd.txt.txt 的问题。还有个别电脑写相对路径找不到 pd.txt,可以修改为绝对路径。
  • 报类型转换异常。通常都是在驱动函数中设置 Map 输出和最终输出时编写错误。Map 输出的 key 如果没有排序,也会报类型转换异常。
  • 集群中运行 wc.jar 时出现了无法获得输入文件。原因:WordCount 案例的输入文件不能放用 HDFS 集群的根目录。
  • 出现了如下相关异常。
    Exception  in  thread  "main"
     java.lang.UnsatisfiedLinkError:org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z 
    at org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Native Method) 
    at org.apache.hadoop.io.nativeio.NativeIO$Windows.access(NativeIO.java:609)
    at org.apache.hadoop.fs.FileUtil.canRead(FileUtil.java:977)java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
    at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:356)
    at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:371)
    at org.apache.hadoop.util.Shell.<clinit>(Shell.java:364)
    解决方案一:拷贝 hadoop.dll 文件到 Windows 目录 C:\Windows\System32
    还需要修改 Hadoop 源码。
    方案二:创建如下包名,并将 NativeIO.java 拷贝到该包名下
  • 自定义 Outputformat 时,注意在 RecordWirter 中的 close 方法必须关闭流资源。否则输
    出的文件内容中数据为空。
    @Override
    public  void  close(TaskAttemptContext  context)  throws  IOException,InterruptedException{
        if (atguigufos != null) {
            atguigufos.close();
        }
        if (otherfos != null) {
            otherfos.close();
        }
    }
  • hadoop停止集群,关闭datanode节点发生异常,集群无法正常启动。解决方法,重启集群:
  1. 清空/tmp下以hadoop开头的文件:rm -rf tmp/hadoop*
  2. 清空/tmp下以hsperf开头的文件:rm -rf tmp/hsperfdata_hadoop
  3. 清空/tmp下以yarn开头的文件:rm -rf tmp/yarn*
  4. 重新格式化hadoop,并重启集群:hdfs namenode -format,myhadoop.sh stop,myhadoop.sh start

注意:格式化namenode,会产生新的集群id,导致namenode和datanode的集群id不一致,集群找不到以往的数据。如果集群在运行过程中报错,需要格式化的话,一定要先停止namenode和datanode进程,并且要删除所有机器的data和logs目录,然后再进行格式化。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值