Hadoop Multi Node Cluster(Hadoop 集群)的安装与配置

该篇博客这要是对多台机器的Hadoop集群,以及hadoop 资源管理(ResourceManager)与NameNode HDFS Web界面的介绍。
Hadoop Multi Node Cluster(Hadoop 集群)规划如下:

  • 一台主要计算机master,在HDFS担任NameNode角色、在MapReduce2(YARN)担任ResourceManager角色。
  • 有多台计算机,在HDFS担任DataNode角色、在MapReduce2(YARN)担任NodeManager角色


在这里插入图片描述
Hadoop Multi Node Cluster架构必须由四台服务器才能建立,这使用虚拟机代替。

  1. 复制Single Node Cluster 复制到data1
    (1)复制Hadoop到data1:
    单击Hadoop虚拟机,右键复制、输入新虚拟机的名字,勾选重新初始化所有网卡的MAC地址,下一步。
    在这里插入图片描述
    (2)完全复制
    在这里插入图片描述
    (3)等待完成就好
    在这里插入图片描述

  2. 设置Virtual Box 网卡
    为每台虚拟主机设置两张网卡
    网卡1:设为“NAT网卡”,可以通过Host主机连接到外部网络
    网卡2:设为“仅主机适配器”,用于创建内部网络,内部网络连接虚拟主机(master,data1、2、3)与host主机。
    在这里插入图片描述
    设置过程如下
    (1)、设置data网卡(以data1为例):
    在这里插入图片描述
    (2)设置网卡1为NAT网卡。
    在这里插入图片描述
    (3)设置网卡2:仅主机适配器
    在这里插入图片描述

  3. 设置data1服务器
    (1)启动data1虚拟机
    (2)编辑网络配置文件

sudo gedit /etc/network/interfaces

输入以下内容
# NAT interface
auto eth0
iface eth0 inet dhcp
# host only interface
auto eth1
iface eth1 inet static
address			192.168.56.101
netmask			255.255.255.0
network			192.168.56.0
broadcast		192.168.56.255

在这里插入图片描述
(3)设置hostname

sudo gedit /etc/hostname

在这里插入图片描述
(4)设置hosts文件

sudo gedit /etc/hosts

在这里插入图片描述
(5)编辑core-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml

在这里插入图片描述
(6)编辑YARN-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml

# 输入以下内容
yarn.resourcemanager.resource-tracker.address 
master:8025 
yarn.resourcemanager.scheduler.address 
master:8030 
yarn.resourcemanager.address 
master:8050

在这里插入图片描述
(7)编辑mapred-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/mapred-site.xml

输入:
mapred.job.tracker 
master:54311

在这里插入图片描述
(8)编辑hdfs-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml

# 在文件输入:
dfs.replication    
3    
dfs.datanode.data.dir    
file:/usr/local/hadoop/hadoop_data/hdfs/datanode 

在这里插入图片描述
(9)重启data1

  1. 复制data1服务器到data2、3、master
    设置各个主机内存:
    在这里插入图片描述
    根据Host主机(PC或服务器)决定内存分配大小:
内存masterdata1data2data3
16GB4GB2GB2GB2GB
8GB1GB1GB1GB1GB

4GB 建议使用Single Node Cluster:2GB
如果虚拟机的内存设置总和超过Host实体主机的内存大小,会造成实体主机宕机。

  1. 设置data2服务器
    (1)设置固定IP:sudo gedit /etc/network/interfaces
    在这里插入图片描述(2)设置主机名:sudo gedit /etc/hostname
    在这里插入图片描述
    (3)重启查看网络配置
    ifconfig命令
    data3同data2相似,将固定IP改为3 ,并修改主机名。

  2. master服务器配置
    (1)同样的修改固定IP为0,修改主机名
    (2)设置hdfs–site.xml:sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml

写入:
dfs.namenode.name.dir 
file:/usr/local/hadoop/hadoop_data/hdfs/namenode

在这里插入图片描述
(3)编辑master文件:sudo gedit /usr/local/hadoop/etc/hadoop/master

在这里插入图片描述
(4)编辑slaves文件:sudo gedit /usr/local/hadoop/etc/hadoop/slaves
在这里插入图片描述
(5)重启验证是否正确,网络是否正常:ifconfig

  1. master连接到data1、data2、data3创建HDFS目录
    (1)、打开所有虚拟机
    (2)、连接到data1虚拟机,在master的终端中输入ssh data1
    在这里插入图片描述
    (3)、连接到data1创建的HDFS 目录
#在终端输入以下命令:
	# 删除HDFS所有目录
	sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs
	# 创建DataNode目录
	mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode	
	# 更改目录所有者
	sudo chown -R user:user /usr/local/hadoop

在这里插入图片描述
(4)、中断data1连接,回到masterexit
(5)、连接到data2,data3执行同样操作

8.创建并格式化NameNode HDFS目录
(1)、重新创建NameNode HDFS 目录

# master 终端输入下列命令
sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs
mkdir -p /usr/local/hadoop/hadoop_data/hdfs/namenode
sudo chown -R user:user /usr/local/hadoop

(2)、格式化NameNode目录

hadoop namenode -format

在这里插入图片描述
9.启动Hadoop Mulit Node Cluster
(1)、启动HDFS和YARN:start-all.sh
(2)、查看master(NameNode)的进程:jps
(3)、ssh连接到data1查看data1 的进程

  1. 打开 Hadoop ResourceManager Web 界面
http://localhost:8088/

在这里插入图片描述

  1. 打开NameNode Web界面
http://master:50070/

在这里插入图片描述
12. 终端停止Hadoop Multi Node Cluster:stop-all.sh

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值