启动Hadoop时提示 start-all.sh:找不到命令 的解决方法

搭建完Hadoop分布式集群后,在启动Hadoop服务时,就遇到了问题。

一、 问题描述

输入命令start-all.sh(该命令是start-dfs.shstart-yarn.sh这两个命令的合并),报错信息如下图所示。

在这里插入图片描述

二、 问题分析

这个问题出现的原因是环境变量没有配置好,打开 /etc/profile 文件,或者 ~/.bash_profile 文件进行修改,就可以解决了。

下面以打开 /etc/profile 文件为例,打开 ~/.bash_profile 文件也是同样的方法(把命令中的/etc/profile换为~/.bash_profile,其他操作不变)。

三、 解决方法

打开文件(命令中gedit的位置,可以用vi或者vim代替)

gedit /etc/profile

在这里插入图片描述

添加以下内容

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

在这里插入图片描述
再输入下面这条命令使之生效

source /etc/profile

就可以解决了。

  • 95
    点赞
  • 166
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 67
    评论
分布式安装是在单台机器上模拟分布式的安装方式,适用于学习和测试Hadoop的初学者。以下是伪分布式安装的步骤: 1. 首先,需要下载Hadoop的安装包,并解压到本地的某个目录中。 2. 修改Hadoop的配置文件,主要包括以下几个文件: - core-site.xml:配置Hadoop的核心参数,如HDFS的名称节点地址、RPC端口等。 - hdfs-site.xml:配置HDFS的相关参数,如数据块大小、副本数量等。 - mapred-site.xml:配置MapReduce的相关参数,如JobTracker地址、TaskTracker数量等。 - yarn-site.xml:配置YARN的相关参数,如NodeManager地址、ResourceManager地址等。 3. 接着,需要创建Hadoop的数据目录和日志目录,并修改它们的权限: - mkdir -p /home/hadoop/data/hdfs/namenode - mkdir -p /home/hadoop/data/hdfs/datanode - mkdir -p /home/hadoop/logs/hdfs - chmod -R 777 /home/hadoop/data /home/hadoop/logs 4. 启动Hadoop的服务: - 启动HDFS:hadoop namenode -format && start-all.sh - 启动YARN:start-yarn.sh 5. 确认Hadoop的服务已经启动成功: - 使用jps命令查看Hadoop的进程:jps - 访问Hadoop的Web界面:http://localhost:50070/(HDFS)、http://localhost:8088/(YARN) 以上就是Hadoop分布式安装的步骤。需要注意的是,伪分布式安装只是为了模拟分布式环境,不能支持真正的分布式计算。如果需要在多台机器上运行Hadoop集群,需要进行完整的分布式安装。
评论 67
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

苜苜的烂笔头

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值