Haddop+spark大数据分析(二)之Hadoop 集群的搭建

 


前言

上一节介绍了虚拟机的下载以及Java环境的搭建,这节主要讲解Hadoop集群的搭建


 

一、集群环境的下载及其配置

我们需要现在一台机器上配置好 hadoop,然后再把它拷贝到其他机器上,这里我选择在master 也就是要做为 nameNode 的那台机器

1.下载hadoop

再次强调 建议在克隆之前,先在一台机器上,下载、解压好再克隆,这样多台机器就都有了

下载

注:需要提前安装wget包  命令: yum install wget

官方地址:

wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz

国内镜像地址(建议清华大学):

wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/stable/hadoop-3.3.0.tar.gz

解压

下载完成后,下一步是解压

我是解压到 /usr/local/hadoop 目录下,其中 /hadoop 目录是我预先创建的

mkdir usr/local/hadoop

快速解压(参考别的博主):

tar -zxvf hadoop-3.3.0.tar.gz -C /usr/local/hadoop

如果遇到  tar: Error is not recoverable: exiting now  错误,可参考https://stackoverflow.com/questions/3950839/tar-error-is-not-recoverable-exiting-now

简言之,分解压缩步骤,进入目录 /usr/local/hadoop 逐步执行如下代码

gunzip hadoop-3.3.0.tar.gz

 

tar xf hadoop-3.3.0.tar

 

2.配置 hadoop 环境变量

vi /etc/profile

在末尾追加hadoop环境

export HADOOP_HOME=/usr/local/hadoop/hadoop-3.3.0
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

配置完成之后,刷新

nmcli c reload

查看变量是否生效

hadoop version

显示如下信息即正确

配置hadoop 核心环境

配置 hadoop-env.sh

首先,查看 JAVA_HOME 的地址

echo $JAVA_HOME

配置 JAVA_HOME 路径

vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值