环境准备
- 三台 Linux centos 7机器,本例中使用 vmware 创建三台虚拟机作为替代
- 基于1,电脑需要安装好 vmware 软件,需要使用 secureCRT 登录Linux机器方便操作
- 准备好 jdk 8 和 hadoop-3.1.2 安装包
- 所有需要的安装包均为官网下载下来的 传送门 提取码 wgze
效果描述
最后的集群为一个三台机器的 hadoop 集群,其中数据结点(DataNode)和计算结点(NodeManager)分布在三台机器上,192.168.19.200既是数据结点和计算结点,又是集群管理结点所在机器,按照官方文档上写NameNode, ResourceManager 需分别部署在不同的机器上共同构成主节点,本例中将主节点复用在192.168.19.200机器上。 集群搭建完成后可以针对该集群做简单的 hdfs 操作与 mapreduce 操作,还能通过相关的web页面对 hadoop 集群进行管理。
最后机器的结点分布为
192.168.19.200 | 192.168.19.201 | 192.168.19.202 |
---|---|---|
NameNode SecondaryNameNode ResourceManager DataNode NodeManager |
DataNode NodeManager |
DataNode NodeManager |
结点网络拓扑图
准备三台虚拟机
创建虚拟机,并且将网络适配器选用 NAT模式,并且配置为静态 ip, 机器静态ip配置参考 静态ip设置 分别将三台机器的ip 设置为 [192.168.19.200,192.168.19.201,192.168.19.202]
安装 java 环境
由于 hadoop 框架的启动是依赖 java 环境,因此需要准备 jdk 环境,本例中使用的 jdk8 在 /mywork 目录下进行演示,使用 tar -zxvf jdk-8u201-linux-x64.tar.gz 解压jdk ,然后使用 mv jdk1.8.0_201 jdk8 将目录改名
//解压
tar -zxvf jdk-8u201-linux-x64.tar.gz
//重命名
mv jdk-8u201-linux-x64 jdk8