hadoop 调试mapperduce

问题描述

运行hadoop的MapReduce示例,在running job卡住

在页面中显示一直处于

ACCEPTED Applications 状态

修改日志级别
export HADOOP_ROOT_LOGGER=DEBUG,console
查看下详细信息

DEBUG crypto.OpensslCipher: Failed to load OpenSSL Cipher.
java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCodeLoader.buildSupportsOpenssl()Z
at org.apache.hadoop.util.NativeCodeLoader.buildSupportsOpenssl(Native Method)
at org.apache.hadoop.crypto.OpensslCipher.<clinit>(OpensslCipher.java:84)
at org.apache.hadoop.crypto.OpensslAesCtrCryptoCodec.<init>(OpensslAesCtrCryptoCodec.java:50)

缺少一个东西

 

找到原因了,在使用start-all启动的时候必须每次机器的slave文件都必须配置,结果我两台机器没有配置

[hadoop@mini2 ~]$ cat /home/hadoop/apps/hadoop-2.6.5/etc/hadoop/slaves
localhost

现在有点理解为什么官方都不推荐使用这个启动命令了,错了问题不好调试啊

 问题2,namenode一直不能启动,日志报错All specified directories are failed to load.

由于没有配置

<name>hadoop.tmp.dir</name>
<value>/home/hadoop/apps/hadoop-2.6.5/tmp</value>

导致hadoop将tmp文件放在了/tmp里面,

但是我每次清空还是清空hadoop里面的tmp文件

后来仔细看了一下hadoop name -format时说明的tmp路径,这就是为什么说All specified directories are failed to load. ,原来每次都没有清空文件

下面是重新配置之后的路径

 Storage directory /home/hadoop/apps/hadoop-2.6.5/tmp/dfs/name has been successfully formatted.

转载于:https://www.cnblogs.com/rocky-AGE-24/p/7087482.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值