搭建Hadoop集群(详细步骤)

一、创建Linux最小系统
1、安装最小系统
2、修改虚拟机的虚拟网络编辑器,
网段改为:192.168.200.0
网关为:192.168.200.2
PS:(改成自己的也可以,注意要保证自己前两段与自己设置的IP地址要保持一致,即192.168这两段要和自己IP地址保持一样,不一样,虚拟机会连不上网)
3、在windows的命令提示符下输入ipconfig查看是否有192.168.200.1的以太网适配器 VMware Network Adapter VMnet8(网络自己也可以手动设置)
二、改主机名
1、使用nmtui图形化工具配置
2、命令行配置
hostnamectl set-hostname master
三、设置静态IP

1、使用nmtui图形化工具配置
2、命令行配置
vi /etc/sysconfig/network-scripts/ifcfg-ens33
如下设置:
IPADDR=192.168.200.101
PREFIX=24
GATEWAY=192.168.200.2
DNS1=192.168.200.2
3、在windows的命令提示符下输入
ping 192.168.200.101看是否能ping通
4、在master上输入
ping www.baidu.com(需要Windows主机联外网)看是否能ping通
5、用xshell或其他的ssh工具连接

四、设置hosts文件

vi /etc/hosts
加入以下内容:
192.168.200.101 hadoop101
192.168.200.102 hadoop102
192.168.200.103 hadoop103

五、关闭并禁止防火墙

systemctl  stop 	firewalld
systemctl  disable 	firewalld

六、安装jdk1.8

**1、新建文件夹存放软件**
	mkdir /opt/soft
	复制jdk-8u171-linux-x64.tar.gz到此文件夹
**2、新建文件夹存放安装的目录**
	mkdir /usr/java
**3、解压到安装目录**
	tar -zxvf /opt/soft/jdk-8u171-linux-x64.tar.gz -C /usr/java/
**4、配置环境变量**
	修改环境变量:vi /etc/profile
	添加内容如下:
export JAVA_HOME=/usr/java/jdk1.8.0_171
export PATH=$PATH:$JAVA_HOME/bin

生效环境变量:
source /etc/profile
七、在master上配置hadoop

1、上传到 /opt/soft
2、解压
mkdir -p /opt/modul/hadoop 
tar -zxvf hadoop-2.7.3.tar.gz -C /opt/modul/hadoop
3、配置环境变量
vi /etc/profile
加入下面内容
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
**保存退出后执行**
source /etc/profile
4、修改配置文件(/opt/modul/hadoop/hadoop-2.7.3/etc/hadoop/)
(1)hadoop-env.sh
vim /opt/modul/hadoop/hadoop-2.7.3/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_171
(2)core-site.xml

vim /opt/modul/hadoop/hadoop-2.7.3/etc/hadoop/core-site.xml


修改如下
 <configuration>
	<!-- 指定hdfs的namenode为hadoop102 -->
	<property>
		<name>fs.default.name</name>
		<value>hdfs://hadoop102:8020</value>
	</property>
	<!-- 指定hadoop临时目录format时自动生成 -->
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/opt/module/hadoop-3.1.3/data</value>
	</property>
</configuration>
(3)hdfs-site.xml
vim /opt/modul/hadoop/hadoop-2.7.3/etc/hadoop/hdfs-site.xml

修改如下:
<configuration>
<!--secondarynamenode位置定义-->
	<property>
		<name>dfs.namenode.http-address</name>
		<value>hadoop102:9870</value>
        </property>
	<!--secondarynamenode位置定义-->
	<property>
		<name>dfs.namenode.secondary.http-address</name>
		<value>hadoop103:9868</value>
	</property>
</configuration>
(4)mapred-site.xml

复制生成文件
cd /opt/modul/hadoop/hadoop-2.7.3/etc/hadoop/

cp mapred-site.xml.template mapred-site.xml

vim mapred-site.xml

修改如下:
<configuration>
	<!-- 指定mr框架为yarn方式 -->
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
</configuration>
(5)yarn-site.xml

vim /usr/hadoop/hadoop-2.7.3/opt/modul/hadoop/yarn-site.xml


修改如下:
<configuration>
	<!-- 分别指定resourcemanager的地址 -->
	<property>
		<name>yarn.resourcemanager.hostname</name>
		<value>hadoop102</value>
	</property>
	<!-- 制定Nodemanager获取数据方式为shuffle方式 -->
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
</configuration>

**(6)slaves(datanode的位置)**
	
	vim /opt/modul/hadoop/hadoop-2.7.3/etc/hadoop/workes
	删除原有内容,修改如下:
	hadoop102
	hadoop103
	hadoop104
**八、复制生成hadoop102、hadoop103主机**
	1、克隆生成slave1
		修改hostname为hadoop102
		修改IP为192.168.200.102
	2、克隆生成slave2
		修改hostname为hadoop103
		修改IP为192.168.200.103
**九、ssh免密**
	(master执行->master|slave1|slave2)
		ssh-keygen #4个回车 生成公钥、私钥
		ssh-copy-id hadoop101
		ssh-copy-id hadoop102
		ssh-copy-id hadoop103
	同理 在slave1、slave2上执行(可以同时输入操作)
	
**十、时间同步(需要连接外网)**
	集群时间同步(3台机器)
	yum -y install ntpdate
	ntpdate ntp4.aliyun.com
十一、启动hadoop(在master上运行)
	1、初始化namenode
	hdfs namenode -format
	2、在master运行
	start-all.sh
	
**十二、查看**
	1、在hadoop101、hadoop102,hadoop103上执行jps查看进程
	2、在windows主机上输入namenodeIP+端口号
		http://192.168.200.101:50070/查看HDFS管理界面
		http://192.168.200.101:8088/查看yarn管理界面

**十三、关闭Hadoop集群**
	在master(namenode)运行
	     stop-all.sh
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

洒丶脱

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值