Hadoop 部署之环境准备(一)

一、软硬件规划

ID主机类型主机名IP应用软件操作系统硬件配置
1物理机namenode01192.168.1.200jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1CentOS7.46核CPU、8G内存、250存储
2物理机datanode01192.168.1.201jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1CentOS7.46核CPU、8G内存、250存储
3物理机datanode02192.168.1.202jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1CentOS7.46核CPU、8G内存、250存储
4物理机datanode03192.168.1.203jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1CentOS7.46核CPU、8G内存、250存储

我这里规划的角色不是太好,如果是四台机器,建议大家按照我们下面的分配

  • ZooKeeper
    ZooKeeper Server:namenode01
  • HDFS
    NameNode:namenode01
    SecondaryNameNode:namenode01
    DataNode:datanode[01-03]
  • YARN
    ResourceManager:namenode01
    NodeManager:datanode[01-03]
  • HBase
    Master:namenode01
    RegionServer:datanode[01-03]
  • Hive
    HiveServer2:namenode01
    Hive Metastore Server:namenode01
  • Spark
    Master:namenode01
    Worker:datanode[01-03]

二、主机名解析

修改四台服务器的主机名。

192.168.1.200 namenode01 hbase01 spark01 hive01 cluster1
192.168.1.201 datanode01 hbase02 spark02 zk01 mysql01
192.168.1.202 datanode02 hbase03 spark03 zk02
192.168.1.203 datanode03 hbase04 spark04 zk03

Hadoop 部署之环境准备(一)

三、配置 SSH 互信

在namenode01节点上面进行操作。

ssh-keygen -t rsa
ssh-copy-id namenode01
ssh-copy-id datanode01
ssh-copy-id datanode02
ssh-copy-id datanode03

四、创建用户

创建用户(4台机器相同操作)

useradd hadoop && echo '123456' |passwd --stdin hadoop

使用命令visudo设置用户权限(4台机器相同操作),添加如下内容:

hadoop    ALL=(ALL)       ALL

五、JDK 的安装

下载JDK1.8,可以选择下载rpm包,直接安装即可使用。
https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值