hadoop集群搭建(详细过程)

创建虚拟机

这里可以使用真机,也可用虚拟机创建。这里以虚拟机为例说明。在VMware中创建3台虚拟机,这里操作系统是Centos7。
虚拟机创建在此省略。
这里需要对配置网络连接与ip地址等,在此不做详细介绍。
确保可以NAT上网

关闭防火墙

systemctl disable firewalld	重启关闭生效
systemctl status firewalld	检查状态

提示:可先创建一台,之后克隆2台。

修改机器名

当然也可不修改,但为了以后的方便,推荐修改。
以root角色登录,修改
首先查看机器名

hostname

修改机器名

hostnamectl set-hostname 修改的名字

3台机器分别改为master,slave1,slave2

修改后重启

reboot

添加域名映射

3台虚拟机都编辑 /etc/hosts 文件
在末尾添加

master的ip地址	master
slave1的ip地址	slave1
slave2的ip地址	slave2
真机的ip地址	真机名(看你心意)

在真机中添加映射
以管理员身份运行记事本
在这里插入图片描述
打开文件 路径:C:Window/system32/drivers/etc/hosts
在etc中若是没看见hosts,在下面选择所以文件:
在这里插入图片描述

使用xshell登录虚拟机

将准备好的hadoop,jdk使用传输工具上传到虚拟机上
在这里插入图片描述
在虚拟机创建一个文件夹soft,存放上面两个文件。

mkdir /opt/soft

将上述两个文件循环拷贝到所有从节点(如果有多个,方便)
machines文件中是子节点,内容如下

slave1
slave2

执行如下命令(拷贝jdk):
for x in cat machines;do echo $x;scp jdk-8u101-linux-x64.rpm $x:/opt/soft;done

安装jdk(3台虚拟机都要安装)

检查java版本

java -version

显示如下内容:
在这里插入图片描述

删除openjdk

rpm -qa | grep java 查看
rpm -e --nodeps xxxxxx 删除

查看openjdk文件
在这里插入图片描述
依次删除上述4个openjdk
在这里插入图片描述

安装jdk,配置环境变量

提示:3台虚拟机都如此操作

tar -zxvf jdk-8u271-linux-x64.tar.gz

出现如下文件
在这里插入图片描述

由于文件带jdk版本号,在此为了方便为其添加一个软链接

ln -s jdk1.8.0_271 jdk

在这里插入图片描述
在这里插入图片描述
配置jdk环境变量:

vim /etc/profile

在最后添加

export JAVA_HOME=(jdk的路径)
export PATH=$PATH:$JAVA_HOME/bin

保存后,重新编译profile文件

source /etc/profile

此时,查看java
在这里插入图片描述

安装hadoop,配置环境变量

提示,3台虚拟机都配置安装
hadoop安装,与jdk一致
在这里插入图片描述

配置hadoop环境变量

修改/etc/proflie文件
末尾添加:

export HADOOP_HOME=(hadoop文件路径)
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

验证hadoop安装成功
在这里插入图片描述

配置hadoop文件信息、

3台虚拟机都配置

修改hadoop的java环境

进入hadoop文件:
在这里插入图片描述
进入etc/hadoop
在这里插入图片描述在这里插入图片描述
修改hadoop-env.sh文件
在这里插入图片描述
这里有的会出现问题,若有问题,可将写jdk的详细路径。

配置hadoop的core文件

编辑core-site.xml文件。

<configuration>

 <property>
  <name>hadoop.tmp.dir</name>
  <value>/Cloud1</value>   
 </property>
 
 <property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:8020</value>
 </property>
 
</configuration>

格式化主节点(只master节点)

注意!!!格式化只可一次!!!
多次格式化会有问题!!!
回到hadoop文件,进入bin
在这里插入图片描述
格式化主节点

hdfs namenode -format

启动hdfs

回到hadoop,进入sbin文件

hadoop-daemon.sh start namenode

查看进程,存在NameNode节点
在这里插入图片描述
在这里插入图片描述在这里插入图片描述

最后

在浏览器登录http://master:50070
在这里插入图片描述
可以看到存在两个Datanode节点。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值