ERROR: Invalid HADOOP_MAPRED_HOME

项目场景:

环境: cdh集群
cdh版本: 6.3


问题描述

1.昨天下午收到同事反馈内网cdh集群有一台机器有问题
2.ssh一登录就报ERROR: Invalid HADOOP_MAPRED_HOME
3.输入任何大数据相关命令都报错:
ERROR: Invalid HADOOP_MAPRED_HOME
4.百度了一下,发现网上的解决方案都不奏效


解决方案:

1.看环境变量存在不

# echo $HADOOP_MAPRED_HOME

空的
2.查阅资料发现cdh 环境变量设置在 /etc/hadoop/conf/hadoop-env.sh

# cat /etc/hadoop/conf/hadoop-env.sh

内容如下:

# Prepend/Append plugin parcel classpaths

if [ "$HADOOP_USER_CLASSPATH_FIRST" = 'true' ]; then
  # HADOOP_CLASSPATH={{HADOOP_CLASSPATH_APPEND}}
  :
else
  # HADOOP_CLASSPATH={{HADOOP_CLASSPATH}}
  :
fi
# JAVA_LIBRARY_PATH={{JAVA_LIBRARY_PATH}}

export HADOOP_MAPRED_HOME=$( ([[ ! '/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce' =~ CDH_MR2_HOME ]] && echo /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce ) || echo ${CDH_MR2_HOME:-/usr/lib/hadoop-mapreduce/}  )
export YARN_OPTS="-Xmx825955249 -Djava.net.preferIPv4Stack=true $YARN_OPTS"
export HADOOP_CLIENT_OPTS="-Djava.net.preferIPv4Stack=true $HADOOP_CLIENT_OPTS"

由此可见,HADOOP_MAPRED_HOME的值取了2个可能的值:
/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce
或者
/usr/lib/hadoop-mapreduce/

3.查看以上2个目录文件存不存在

# ls /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce
ls: cannot access /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce: No such file or directory
# ls /usr/lib/hadoop-mapreduce/
ls: cannot access /usr/lib/hadoop-mapreduce/: No such file or directory

4.再看看源码

    exit 1
+   fi
+ 
+-  if [[ ! -d "${HADOOP_HDFS_HOME}" ]]; then
+-    hadoop_error "ERROR: Invalid HADOOP_HDFS_HOME"
+-    exit 1
+-  fi
+-
+-  if [[ ! -d "${HADOOP_YARN_HOME}" ]]; then
+-    hadoop_error "ERROR: Invalid HADOOP_YARN_HOME"
+-    exit 1
+-  fi
+-
+-  if [[ ! -d "${HADOOP_MAPRED_HOME}" ]]; then
+-    hadoop_error "ERROR: Invalid HADOOP_MAPRED_HOME"
+-    exit 1
+-  fi

现在确实不存在以上2个目录,所以报了ERROR: Invalid HADOOP_MAPRED_HOME这样的错
5.查找一下hadoop-mapreduce这个目录
/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hadoop-mapreduce

# find / -name hadoop-mapreduce
/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hadoop-mapreduce

6.对比另外一台正常机器的目录

# ls /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce
aliyun-sdk-oss-2.8.3.jar                                    hadoop-mapreduce-client-nativetask-3.0.0-cdh6.3.2.jar
azure-keyvault-core-0.8.0.jar                               hadoop-mapreduce-client-nativetask.jar
azure-storage-5.4.0.jar                                     hadoop-mapreduce-client-shuffle-3.0.0-cdh6.3.2.jar
bin                                                         hadoop-mapreduce-client-shuffle.jar
cloudera                                                    hadoop-mapreduce-client-uploader-3.0.0-cdh6.3.2.jar
hadoop-aliyun-3.0.0-cdh6.3.2.jar                            hadoop-mapreduce-client-uploader.jar
hadoop-aliyun.jar                                           hadoop-mapreduce-examples-3.0.0-cdh6.3.2.jar
hadoop-archive-logs-3.0.0-cdh6.3.2.jar                      hadoop-mapreduce-examples.jar

另外一台机器有这个目录
7.进到正常机器的/opt/cloudera/parcels查看

# cd /opt/cloudera/parcels
# ls
CDH  CDH-6.3.2-1.cdh6.3.2.p0.1605554  LIVY  LIVY-0.5.0  

明白了,原来是少了个CDH软链接文件,估计是被哪位同事不小心删掉了
看看有问题机器的目录状况:

# cd /opt/cloudera/parcels
# ls
  CDH-6.3.2-1.cdh6.3.2.p0.1605554  LIVY  LIVY-0.5.0  

8.新建软链接解决问题

# cd /opt/cloudera/parcels
# ls
  CDH-6.3.2-1.cdh6.3.2.p0.1605554  LIVY  LIVY-0.5.0  
# ln -s /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554  /opt/cloudera/parcels/CDH

总结

由上可见具体原因就是少了某个软链接,导致目录不存在,从而导致环境变量取不到值,最终报ERROR: Invalid HADOOP_MAPRED_HOME的错误

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 这个错误提示表示 Hadoop 找不到正确的 HDFS 安装路径。你需要检查 Hadoop 配置文件中的 hadoop_hdfs_home 参数是否正确设置,或者确认 HDFS 是否已经正确安装并设置了环境变量。 ### 回答2: Hadoop 是一款大数据处理框架,需要依赖 Hadoop HDFS 存储系统。在配置 Hadoop 环境时,需要设置环境变量 HADOOP_HDFS_HOME,以指定 Hadoop HDFS 的安装路径。当出现 "error: invalid hadoop_hdfs_home" 错误时,意味着系统无法识别该环境变量,即 Hadoop HDFS 安装路径无效。 解决该问题的方法是检查环境变量的设置是否正确。首先在命令行界面输入 echo $HADOOP_HDFS_HOME 命令,以检查系统是否能识别该环境变量。如果该命令无法输出正确的路径,则需要修改环境变量的设置。 可以在 ~/.bashrc 或 ~/.bash_profile 文件中添加以下环境变量设置语句: export HADOOP_HDFS_HOME=/path/to/hadoop-hdfs 其中,/path/to/hadoop-hdfs 是 Hadoop HDFS 的安装路径。设置好这个环境变量之后,可以输入 source ~/.bashrc 或 source ~/.bash_profile 命令,以使环境变量的改动生效。 另外,还可通过设置 Hadoop 的配置文件来修改 Hadoop HDFS 的安装路径。可以在 Hadoop 配置文件 core-site.xml 中添加以下配置: <property> <name>hadoop.hdfs.home</name> <value>/path/to/hadoop-hdfs</value> </property> 在以上配置中,/path/to/hadoop-hdfs 是 Hadoop HDFS 的安装路径。保存好配置文件后,重新启动 Hadoop,即可解决 "error: invalid hadoop_hdfs_home" 错误。 ### 回答3: 这个错误信息意味着在运行hadoop相关命令时,系统无法找到指定的hadoop_hdfs_home环境变量。hadoop_hdfs_home是一个关键的环境变量,用于指定hadoop分布式文件系统(HDFS)的安装目录。如果系统无法找到或者无法识别该环境变量,就会出现invalid错误提示。 要解决这个问题,可以尝试以下步骤: 1.检查hadoop_hdfs_home环境变量是否正确设置,可以通过运行echo $hadoop_hdfs_home命令来确认该环境变量的值是否正确。 2.如果hadoop_hdfs_home环境变量未设置,可以通过手动设置该变量或者运行hadoop-env.sh脚本来设置该变量。 3.如果hadoop_hdfs_home环境变量设置正确,但仍然无法正常运行hadoop相关命令,可以尝试重新安装hadoop,并确保正确配置了环境变量。 4.最后,如果你还是无法解决这个问题,可以查看系统日志文件或运行hadoop日志命令来查找更详细的信息和错误提示,以帮助你进一步解决该问题。 总之,如果出现invalid hadoop_hdfs_home错误提示,需要确认hadoop_hdfs_home环境变量设置是否正确,并根据具体情况采取适当措施,以解决此问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

day-day-up2

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值