Hadoop学习--搭建hadoop集群

目录

1.安装环境 

2.安装前准备

3.安装配置Hadoop

4.初始化及运行


1.安装环境 

本博客所安装的hadoop只有HDFS、YARN以及MapReduce组件,不包含Hadoop其他组件的安装。

1)准备4台虚拟机(CentOS 7),ip与主机名如下:

  • 192.168.134.128 master
  • 192.168.134.129 slave1
  • 192.168.134.130 slave2
  • 192.168.134.131 slave3

主机规划: 192.168.134.128做master,运行NameNode和ResourceManager进程。其他三台主机做slave,运行DataNode和NodeManager进程。

2)Java版本:jdk1.8.0_141

3)Hadoop版本:hadoop-2.9.2

2.安装前准备

第1、2步使用root用户执行,3、4步使用grid用户执行。

1)分别在4台机器上建立grid用户

#新建用户grid,主目录为/home/grid,如果该目录不存在则创建

useradd -d /home/grid

#将grid用户添加到root组

usermod -a -G root grid

2)分别在四台机器上的/etc/hosts/文件中添加如下内容,用做域名解析

192.168.134.128 master

192.168.134.129 slave1

192.168.134.130 slave2

192.168.134.131 slave3

3)分别在4台机器上安装java

tar -zxvf [java压缩包目录] -C [解压到的目标路径] 

4)配置ssh免密登陆

这里配置任意两台机器之间都可以免密登陆

①分别在4台机器上生成密钥对,注意这里需要在4台机器上都执行。

#进入grid用户的主目录

cd ~

#生成密钥对

ssh-keygen -t rsa

然后一路按回车键。

②在master上执行

#进入.ssh

cd ~/.ssh/

#把本机的公钥追加到自身的~/.ssh/authorized_keys文件里

ssh-copy-id master

#将authorized_keys文件复制到slave1主机

scp /home/grid/.ssh/authorized_keys slave1:/home/grid/.ssh/

③在slave1上执行

cd ~/.ssh/

ssh-copy-id slave1

scp /home/grid/.ssh/authorized_keys slave2:/home/grid/.ssh/

④在slave2上执行

cd ~/.ssh/

ssh-c

  • 6
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值