【大数据】Hadoop集群的安装与配置

条件

采用64位Oracle Linux 6.4, JDK:1.8.0_131 64位, Hadoop:2.7.3
Spark集群实验环境共包含3台服务器,每台机器的主要参数如表所示:

服务器HOSTNAMEIP功能
spark1spark192.16.17.1NN/DN/RM Master/Worker
spark2spark292.16.17.2DN/NM/Worker
spark3spark392.16.17.3DN/NM/Worker

过程

预先准备工作

在 spark1 主节点上解压 Hadoop 安装包,该包已上传至 /stage 目录:
在这里插入图片描述
在这里插入图片描述
接着,将解压好的 hadoop-2.7.3 目录整体移动到 /app/hadoop 目录下:
在这里插入图片描述
接下来,编辑 /etc/profile 文件,添加如下图矩形框内所示环境变量项:
在这里插入图片描述
在这里插入图片描述
注意:/etc/profile 文件修改完成后,需要重启系统以使新添加的环境变量生效
另外需要在 HADOOP_HOME目录下分别创建tmp, name, data, logs四个子目录,如下图所示:
在这里插入图片描述
最后,确认Hadoop版本和路径信息正确
在这里插入图片描述

修改YARN配置文件

需要修改的 YARN 配置文件保存在$HADOOP_HOME/etc/haoop目录下,需要修改的文件共有 7 个,分别是:core-site.xml, hadoop-env.sh, hdfs-
site.xml, yarn-site.xml, yarn-env.sh, mapred-site.xml, slave.

  1. core-site.sh
    <configuration></configuration>之间添加如下图所示内容:
    在这里插入图片描述
    在这里插入图片描述

  2. hadoop-env.sh
    打开 hadoop-env.sh, 添加 HADOOP_LOG_DIR 环境变量项,修改HADOOP_CONF_DIR,PATH和JAVA_HOME以及HADOOP_环境变量值:
    在这里插入图片描述
    在这里插入图片描述
    编译hadoop-env.sh,确认修改生效
    在这里插入图片描述

  3. hdfs-site.xml
    在这里插入图片描述

  4. yarn-env.sh
    在这里插入图片描述

  5. yarn-site.xml

    在这里插入图片描述
    在这里插入图片描述

  6. mapred-site.xml
    先要从mapred-site.xml.template模板中复制出mapred-site.xml文件,然后再编辑mapred-site.xml, 添加内容:
    在这里插入图片描述

  7. slave
    编辑slaves, 删除原有条目,添加三台主机的名称:

向各节点分发Hadoop程序

在 spark1 主节点上,使用 scp 命令把 hadoop-2.7.3 目录复制到 spark2 和 spark3 主机的 /app/hadoop 目录下:
在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值