Hadoop集群环境搭建

1镜像准备

CentOS-7-x86_64-Minimal-2009.iso

 2、虚拟机配置

2.1提前设置静态网络

 2.2安装net-tools

yum upgrade

yum net-tools.x86_64 -y

2.3查看本机id

2.4查看网络配置文件

vi /etc/sysconfig/network-scripts/ifcfg-ens33

已经提前设置为静态不需要修改哦

2.5查看,修改主机名

vi /etc/hostname

3、配置hosts文件

修改hosts配置文件(所有虚拟机都需要配置此文件)

4、克隆虚拟机

修改Hadoop02/03的网络配置文件

5、重启网络

6、修改虚拟机名在重启更新主机名

7、ssh免密登录

回车四次

将本机公钥文件复制到其它虚拟机上(接收方需先开机)

8、HADOOP集群配置

8.1在所有虚拟机根目录下创建文件夹

8.2准备安装包

hadoop-2.7.3.tar.gz

jdk-8u144-linux-x64.tar.gz

8.3在Xshell先进入software文件内,然后下载rz命令,并使用rz命令进行文件上传,此时会弹出上传的窗口,选择要上传的文件,点击确定即可将本地文件上传到Linux上。

8.4安装jdk

解压jdk

tar -zxvf jdk-8u144-linux-x64.tar.gz -C /export/servers/

重命名jdk文件目录

配置环境变量

vi /etc/profile

使配置生效

source /etc/profile

查看配置是否成功

8.5安装hadoop-2.7.3

解压文件到servers目录

tar -zxvf hadoop-2.7.3.tar.gz -C /export/servers/

打开配置文件

vi /etc/profile

使配置生效

查看是否配置成功

9、Hadoop集群配置

9.1进入主节点配置目录

9.2修改hadoop-env.sh文件

9.3 修改core-site.xml文件

9.4 修改mapred-site.xml文件

9.5 修改yarn-site.xml文件

vi yarn-site.xml

9.6 修改slaves文件

Vi slaves

9.7 将主节点中配置好的文件和hadoop目录copy给子节点

scp /etc/profile hadoop02:/etc/profile

scp /etc/profile hadoop03:/etc/profile

scp -r /export/ hadoop02:/

scp -r /export/ hadoop03:/

9.8使字节点中的配置文件生效

10、在主节点格式化文件系统(successfully formatted 格式化成功)

hdfs namenode -format

 出现successful代表格式化成功

 

11、Hadoop集群测试

启动集群

start-dfs.sh
start-yarn.sh

11.1在主节点启动所有HDFS服务进程

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值