VMware搭建Hadoop集群 for Windows(完整详细,实测可用)_vmware安装hadoop教程

(1)虚拟网络配置

(2)配置虚拟机 主机名

(3)配置虚拟机hosts

(4)配置DNS、网关等

(5)reboot 重启虚拟机

四、配置SSH服务

(1)确认ssh进程

(2)生成秘钥

(3)秘钥拷贝

五、JDK安装

(1)把JDK安装包传输到虚拟机

(2)把JDK安装包解压到/export/software/

(3)配置JDK环境变量

六、Hadoop安装

(1)安装包上传及解压

(2)Hadoop系统环境配置

(3)Hadoop集群境配置

3.1 修改hadoop-env.sh文件

3.2 修改core-site.xml文件

3.3 修改hdfs-site.xml文件

3.4 修改mapred-site.xml文件

3.5 修改yarn-site.xml文件

3.6 修改workers文件

(4)将集群主节点的配置文件分发到其他子节点

(5)格式化文件系统

(6)集群启动

七、浏览器查看Hadoop集群

(1)修改windows下ip映射

(2)防火墙关闭

(3)浏览器查看


一、VMware 虚拟机安装

(1)虚拟机创建及配置

VMware下载地址

VMware的安装过程比较简单,正常安装就行,打开后是以下页面:

点击文件==》新建虚拟机

这里选择提前下载好的CentOS镜像:

点击开启此虚拟机

Enter回车,开始安装CentOS镜像:

选择语言:

设置日期:

安装位置点进去,点击完成:

KDUMP禁用:

网络和主机名:

点击开始安装:

设置密码

这里要是密码设置过于简单,点击两次完成即可,后面就会继续执行安装了,等待执行完成,店点击重启按钮,重启后进入一下界面:

输入root和密码之后进入虚拟机:

(2)创建工作文件夹

在hadoop01上执行:

mkdir -p /export/data
mkdir -p /export/servers
mkdir -p /export/software

二、克隆虚拟机

搭建集群需要3个虚拟机,hadoop01,hadoop02,hadoop03,已经安装了hadoop01,剩下两个需要用到虚拟机克隆。

先关闭hadoop01虚拟机:

点击克隆

同理,克隆出hadoop03即可,到这虚拟机创建及配置完毕。

三、配置虚拟机的网络

三台虚拟机的ip和域名映射关系如下:

192.168.121.221 hadoop01

192.168.121.222 hadoop02

192.168.121.223 hadoop03

(1)虚拟网络配置

打开虚拟网络编辑器:

选择VMnet8

之后点击确定即可。

(2)配置虚拟机 主机名

在hadoop01虚拟机下执行:

vi /etc/hostname

vi的insert、save等基本操作参考:https://blog.csdn.net/weixin_41231928

修改后如下:

同理修改hadoop02和hadoop03的hostname为 hadoop02 和 hadoop03,原因是hadoop02和hadoop03是由hadoop01克隆来的,不修改的话,hostname都是hadoop01,修改后如下:

(3)配置虚拟机hosts

其实就是配置ip和域名的映射关系。

vi /etc/hosts

上面的命令编辑hosts,在3个虚拟机都里面添加:

192.168.121.221 hadoop01

192.168.121.222 hadoop02

192.168.121.223 hadoop03

(4)配置DNS、网关等

在3个虚拟机下新增以下ip设置

IPADDR=“192.168.121.221”

NETMASK=“255.255.255.0”

GATEWAY=“192.168.121.2”

DNS1=“114.114.114.114”

执行以下命令:

vi  /etc/sysconfig/network-scripts/ifcfg-ens33

(5)reboot 重启虚拟机

以上所有配置完成后,执行:

reboot

然后可以验证下网络是否通,出现一下说明配置正常:

四、配置SSH服务

SSH服务的作用一般是有两方面:一是便于虚拟机节点之间免密访问,二是传输数据时会有加解密的过程安全性更高。为了这三个节点间免密登录,比如后面在启动hadoop服务时,主节点启动其它从节点,就需要免密去执行。所以3台机器都执行以下流程,这样三台机器就可以使用ssh连接而无需输入密码了。

(1)确认ssh进程

输入以下命令,查看ssh进程是否存在(默认是开启的):

ps -e | grep sshd

如下便是开启状态:

(2)生成秘钥

ssh-keygen -t rsa

执行以上命令,不用输入,按3次回车:

(3)秘钥拷贝

三台机器的秘钥分别生成之后,需要将各自的秘钥拷贝到其他2台机器,3台机器都执行以下命令:

ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03

每条命令中间会有询问,输入“yes”回车,然后输入密码即可:

验证下ssh配置:

在hadoop01下执行ssh hadoop02 和ssh hadoop03,能成功登录:

五、JDK安装

下载一个linux版本的JDK,这里是 jdk-8u161-linux-x64.tar.gz,3台机器均要执行以下。

(1)把JDK安装包传输到虚拟机

这里我们需要借助ftcp文件传输软件,这里使用的是**MobaxTerm,*也可以使用别的文件传输软件,WinSCP\PuTTY*****Xshell都可以。

MobaxTerm新建SFTP类型的session:

可以新建一个root用户,把3个虚拟机的密码输入:

点击ok后:

选择jdk文件,拖入之前建好的/export/software文件夹:

(2)把JDK安装包解压到/export/software/

执行以下命令:

cd /export/software/
tar -zxvf jdk-8u161-linux-x64.tar.gz -C /export/servers/
cd /export/servers/
mv jdk1.8.0_161/ jdk

(3)配置JDK环境变量

执行:

vim /etc/profile

在文末添加:

export JAVA_HOME=/export/servers/jdk

export PATH= P A T H : PATH: PATH:JAVA_HOME/bin

export CLASSPATH=.: J A V A _ H O M E / l i b / d t . j a r : JAVA\_HOME/lib/dt.jar: JAVA_HOME/lib/dt.jar:JAVA_HOME/lib/tools.jar

注意:

修改  /etc/profile 文件最后都要执行下

source /etc/profile

才能是修改生效。最后执行java -version看下是否配置成功。

六、Hadoop安装

Hadoop下载地址

这里使用的是 hadoop-3.1.3.tar.gz

(1)安装包上传及解压

跟前面JDK一样,先用 mobaxterm 将 hadoop-3.1.3.tar.gz 上传到3台机器的 /export/software:

执行下面解压命令:

tar -zxvf hadoop-3.1.3.tar.gz -C /export/servers/

(2)Hadoop系统环境配置

执行:

vim /etc/profile

添加一下内容:

export HADOOP_HOME=/export/servers/hadoop-3.1.3

export PATH=: H A D O O P _ H O M E / b i n : HADOOP\_HOME/bin: HADOOP_HOME/bin:HADOOP_HOME/sbin:$PATH

export HDFS_NAMENODE_USER=root

export HDFS_DATANODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

一样,修改  /etc/profile 文件最后都要执行下 “vim /etc/profile”。

执行验证下:

hadoop version

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

ot

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

一样,修改  /etc/profile 文件最后都要执行下 “vim /etc/profile”。

执行验证下:

hadoop version

[外链图片转存中…(img-DDzEd3px-1714424840359)]
[外链图片转存中…(img-qxcuwSW5-1714424840360)]
[外链图片转存中…(img-VBoE9aVO-1714424840360)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 14
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 安装Hadoop的步骤如下: 1. 首先,在VMware16中创建一个新的虚拟机,选择一个合适的操作系统,例如CentOS或Ubuntu。 2. 安装Java环境,Hadoop需要Java环境的支持。可以通过命令行或者图形界面安装Java。 3. 下载Hadoop安装包,解压缩到指定的目录中。 4. 配置Hadoop环境变量,例如JAVA_HOME、HADOOP_HOME等。 5. 修改Hadoop配置文件,例如hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml等。 6. 格式化Hadoop文件系统,使用命令hadoop namenode -format。 7. 启动Hadoop集群,使用命令start-all.sh。 8. 验证Hadoop集群是否正常工作,可以使用命令jps查看Hadoop进程是否启动,也可以使用Hadoop自带的例子程序进行测试。 以上就是在VMware16虚拟机安装Hadoop的步骤。 ### 回答2: 虚拟机是一种模拟计算机硬件的软件,通过虚拟化技术实现多个虚拟计算机在一台物理计算机上同时运行。而Hadoop是一种开源的分布式计算框架,可以支持大规模数据处理与存储。在使用Hadoop时,通过虚拟机安装配置环境可以更加方便、快捷。 下面介绍在VMware 16虚拟机安装Hadoop的步骤: 1. 首先需要下载和安装VMware 16虚拟机,具体安装过程不再赘述。 2. 下载Hadoop安装包,并解压缩到指定目录中。 3. 安装Java,Hadoop需要Java环境的支持,建议安装Java8版本。 4. 配置Hadoop的环境变量,将Hadoop的路径添加到系统的PATH变量中。 5. 配置Hadoop配置文件,包括hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。 6. 在VMware 16虚拟机中设置网络配置,确保虚拟机和主机之间可以互相通信。 7. 启动Hadoop,使用start-all.sh命令启动所有的Hadoop守护进程。 8. 使用jps命令查看Hadoop守护进程是否全部启动成功。 9. 使用Hadoop命令进行测试,如hadoop fs -ls /user命令查看HDFS中的文件列表。 以上就是在VMware 16虚拟机安装Hadoop的基本步骤,需要注意的是,在安装配置过程中可能会出现各种各样的错误,需根据错误信息进行排查和解决。同时,也需要根据实际情况进行必要的调整和优化,以提高Hadoop的性能和稳定性。 ### 回答3: Hadoop是一个大数据处理技术,最初由Apache开发。它是一个开源的软件框架,可以让我们在大规模集群中存储和处理大量的数据。对于学习和开发Hadoop应用程序的人来说,使用虚拟机安装Hadoop是一个非常好的选择。在本文中,我们将演示如何使用VMware16虚拟机安装Hadoop。 步骤1:下载VMware16虚拟机软件并安装 首先,我们需要下载VMware16虚拟机软件并进行安装。它可以在官方网站上免费下载。按照提示进行安装安装成功后,我们可以使用它来创建虚拟机。 步骤2:下载Hadoop并进行安装 下载并安装Hadoop也很简单。我们需要去Hadoop官方网站下载最新版本。在下载之前,我们需要先选择合适的版本和格式。下载完成后,我们需要解压缩文件并将其移动到目标文件夹。 步骤3:创建虚拟机安装Linux 现在,我们可以创建一台新的虚拟机。打开VMware16虚拟机,并选择“创建新虚拟机”。按照提示选择虚拟机配置,例如RAM大小和磁盘大小。在这里,我们建议选择不低于8 GB的RAM和50 GB的磁盘空间。 创建完成后,我们需要安装一个Linux操作系统。例如,我们可以选择CentOS 7的ISO映像文件,并将其安装虚拟机上。 步骤4:配置Hadoop 完成Linux系统安装后,我们就可以配置Hadoop了。在这里,我们需要编辑Hadoop XML配置文件,并将其做出适当的更改。例如,我们可以指定Hadoop的存储路径、数据路径和Hadoop的Web UI端口等。 步骤5:运行Hadoop 完成了Hadoop配置后,我们可以运行它了。在终端中键入以下命令: start-all.sh 这将启动Hadoop集群。现在,我们可以开始提交任务和计算大量数据了。 总结: VMware16虚拟机是虚拟化软件中的佼佼者。使用它来安装Hadoop是一个非常好的选择。在本文中,我们之前展示了如何使用VMware16虚拟机安装Hadoop,并简要介绍了每个步骤。希望这篇文章能够帮助初学者更好地学习和使用Hadoop

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值