六、hadoop启动hdfs时报错

一、遇到问题1

hadoop集群执行命令:
sbin/start-dfs.sh
sbin/start-yarn.sh
报错如下:

[root@hadoop01 hadoop-3.1.4]# sbin/start-dfs.sh
Starting namenodes on [hadoop01]
ERROR: Attempting to operate on hdfs namenode as root
ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.
Starting datanodes
ERROR: Attempting to operate on hdfs datanode as root
ERROR: but there is no HDFS_DATANODE_USER defined. Aborting operation.
Starting secondary namenodes [hadoop03]
ERROR: Attempting to operate on hdfs secondarynamenode as root
ERROR: but there is no HDFS_SECONDARYNAMENODE_USER defined. Aborting operation.

二、解决方案

(1)进入sbin目录
/opt/module/hadoop-3.1.4/sbin
(2)先后在以下命令中输入文本内容

vim start-dfs.sh 
vim stop-dfs.sh

内容:

HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

(3)先后在以下命令中输入文本内容

vim start-yarn.sh
vim stop-yarn.sh

内容:

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

(4)把修改后的sbin目录分发到其他子节点
xsync sbin /opt/module/hadoop-3.1.4/sbin/

三、遇到的问题2

hadoop02: ERROR: JAVA_HOME is not set and could not be found.
hadoop03: ERROR: JAVA_HOME is not set and could not be found.
Starting secondary namenodes [hadoop03]

5166794ec239238135ad00cf93c824d2.png

四、解决方案

子节点没有配置环境变量
自行把主节点的jdk环境变量分发到子节点
(1)
[root@hadoop01 hadoop-3.1.4]# cd /etc/profile.d
(2)
[root@hadoop01 profile.d]# xsync my_env.sh /etc/profile.d/
启动成功:
ba7ddb519574f04d34305191f365e29b.png

  • 4
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

TryBest_

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值