hadoop3.2集群下载安装

本文详细介绍了如何搭建Hadoop 3.2集群,包括安装三台虚拟机并实现互通,设置SSH免密登录,安装JDK8,下载并配置Hadoop,最后启动Hadoop集群。通过克隆虚拟机、修改IP地址、配置环境变量等步骤,实现了Hadoop的分布式运行。
摘要由CSDN通过智能技术生成

一、 搭建hadoop集群

可以先进行jdk和hadoop的安装,经过克隆之后,克隆的虚拟机里面也会存在jdk和hadoop(我用的是完整克隆,链接克隆应该也可以),就不需要多次安装了。

1、安装三台虚拟机并实现互通

(1)第一台虚拟机正常安装,后两台直接克隆(右键->管理->克隆)。
可能会出现虚拟机的IP地址相同(没有出现直接跳过这一步)。若出现这种情况:
先关闭虚拟机,然后右键虚拟机设置
在这里插入图片描述
在这里插入图片描述
再重新打开即可。

或者通过以下命令修改IP地址(每次关闭虚拟机,再开启都要改):

ifconfig ens33 192.168.253.131 netmask 255.255.255.0

(2)执行命令:vim /etc/hostname , 将三台主机名分别改为server1、server2、server3
在这里插入图片描述
(3)通过ifconfig查看三台虚拟机的ip地址
得到三台虚拟机的ip后,修改这三台虚拟机的对应的主机名
192.168.253.129 server1
192.168.253.131 server2
192.168.253.130 server3

执行命令:vim /etc/hosts , 保存三台主机的ip和主机名,实现网络互通
在这里插入图片描述
(4)然后将三台虚拟机重启后生效

执行命令:ping -c 3 server3 查看几台虚拟机之间是否能ping通
在这里插入图片描述

2、设置三台虚拟机SSH免密互登

执行命令:ssh-keygen -t dsa (注意 ssh-keygen中间没有空格)
在命令执行过程中敲击几遍回车,如果有要覆盖文件的要输入’y’或者’yes’进行覆盖,然后在/root/.ssh文件下生成两个文件id_dsa 和id_dsa.pub
在这里插入图片描述
执行命令:cat id_dsa.pub 查看生成的文件是否正确
在这里插入图片描述
三台虚拟机都执行以上操作,得到三个id_dsa.pub文件,将三个文件内容合并到一起。
然后在/root/.ssh/目录下新建一个authorized_keys文件,然后将所有的内容拷贝到该文件中
在这里插入图片描述

执行命令:ssh server2 实现免密互登。
exit 退出互登模式
在这里插入图片描述

3、JDK8下载安装

进入Oracle官网下载:
https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html
在这里插入图片描述
下载之后,通过安装虚拟机的VMvare tools工具,直接将压缩包拖到虚拟机中/home/hz/Downloads.(但经常出问题,我没有成功)

另一种方式:进入WinSCP官网下载软件WinSCP。
直接拖动文件到/home/hz/Downloads即可。
在这里插入图片描述
在这里插入图片描述

通过命令:cp /home/hz/downloads/jdk-8u271-linux-x64.tar.gz /usr/lib/jvm/jdk-8u271-linux-x64.tar.gz(可以先试着直接解压到/usr/lib/jvm,如果不行再用此步骤)

将压缩包放到/usr/lib/jvm下,再进行解压
tar -xzvf jdk-8u271-linux-x64.tar.gz(版本不同,名字不同)

解压成功后:
在这里插入图片描述

然后修改环境变量:
在/etc/profile文件中新增下面内容

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_271
              
export  CLASSPATH=$CLASSPATH:$JAVA_HOME/lib/
              
export  PATH=$JAVA_HOME/bin:$PATH

(如果报错可以试着将PATH=…,$PATH放在后面)
在这里插入图片描述

然后使其生效:source /etc/profile

再输入:java -version
(查看版本是否安装成功)
在这里插入图片描述

**注意:**三台虚拟机都要这样配置。

4、hadoop下载安装

进入hadoop官网Apache,选择二进制下载
在这里插入图片描述
通过上述jdk的方式将hadoop-3.2.0.tar.gz移动到/home/hz/downloads中

在/opt下目录新建一个名为hadoop的目录:mkdir /opt/hadoop
复制到该目录下:cp /home/hz/downloads/hadoop-3.2.0.tar.gz /opt/hadoop/Hadoop-3.2.0.tar.gz
然后进行解压:tar -xzvf hadoop-3.2.0.tar.gz
在/root/下新建几个目录:

mkdir  /root/hadoop
mkdir  /root/hadoop/tmp
mkdir  /root/hadoop/var
mkdir  /root/hadoop/dfs
mkdir  /root/hadoop/dfs/name
mkdir  /root/hadoop/dfs/data

查看配置文件:
cd /opt/hadoop/hadoop-3.2.0/etc/hadoop
在这里插入图片描述

修改core-site.xml文件,在中加入以下配置

vim core-site.xml
<property>

        <name>hadoop.tmp.dir</name>
Hadoop是一个开源的大数据处理框架,用于分布式存储和处理大量数据。安装Hadoop 3.2通常分为几个步骤,这里我会给出一个概述: 1. **下载Hadoop**: 访问Apache Hadoop官网(https://hadoop.apache.org/releases.html),找到对应版本的Hadoop下载适合你操作系统的二进制包,比如`hadoop-3.2.0.tar.gz`。 2. **配置Java环境**:Hadoop需要Java运行环境。确保你的系统中已经安装了JDK,并且环境变量设置正确。 3. **解压并配置目录**:将下载的tar.gz文件解压到一个指定的目录,例如`/usr/local/hadoop`,创建必要目录结构。 ``` tar -xzf hadoop-3.2.0.tar.gz mkdir -p /usr/local/hadoop/{bin,conf,data,logs} ``` 4. **编辑配置文件**: - `conf/core-site.xml`: 设置全局配置,如HDFS的名称节点地址、DataNode的数量等。 - `conf/hdfs-site.xml`: HDFS相关的配置,如副本策略、名称服务地址等。 - `conf/yarn-site.xml` (如果使用YARN模式):YARN的相关配置。 5. **启动服务**: - 首次安装时,你需要运行`sbin/start-all.sh`或`sbin/start-dfs.sh`来启动Hadoop守护进程(NameNode、DataNode、SecondaryNameNode、HDFS客户端)。 - 如果使用YARN,还需要运行`sbin/start-yarn.sh`。 6. **验证安装**: - 使用命令`hadoop fs -ls`来检查HDFS是否正常工作。 - 可以访问 Namenode 的 web UI(默认http://localhost:50070/)来查看集群状态。 **相关问题**: 1. Hadoop有哪些主要组件? 2. 如何在Linux上检查Java环境是否设置正确? 3. 如何在Hadoop配置文件中设置Namenode地址?
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值