Hadoop集群的安装

4.1 HADOOP集群搭建

4.1.1集群简介

HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起

HDFS集群:

负责海量数据的存储,集群中的角色主要有 NameNode / DataNode

YARN集群:

负责海量数据运算时的资源调度,集群中的角色主要有 ResourceManager /NodeManager

(那mapreduce是什么呢?它其实是一个应用程序开发包)

 

本集群搭建案例,以5节点为例进行搭建,角色分配如下:

hdp-node-01    NameNode  SecondaryNameNode

hdp-node-02    ResourceManager

hdp-node-03              DataNode    NodeManager

hdp-node-04              DataNode    NodeManager

hdp-node-05              DataNode    NodeManager

部署图如下:

 

4.1.2服务器准备

本案例使用虚拟机服务器来搭建HADOOP集群,所用软件及版本:

  •   Vmware 11.0
  •   Centos  6.5  64bit

 

4.1.3网络环境准备

  •   采用NAT方式联网
  •   网关地址:192.168.33.1
  •   3个服务器节点IP地址:192.168.33.101、192.168.33.102、192.168.33.103
  •   子网掩码:255.255.255.0

4.1.4服务器系统设置

  •   添加HADOOP用户
  •   为HADOOP用户分配sudoer权限
  •   同步时间
  •   设置主机名
  1.   hdp-node-01
  2.   hdp-node-02
  3.   hdp-node-03
  •   配置内网域名映射:
  1.   192.168.33.101          hdp-node-01
  2.   192.168.33.102          hdp-node-02
  3.   192.168.33.103          hdp-node-03
  •   配置ssh免密登陆
  •   配置防火墙

 

4.1.5 Jdk环境安装

  •   上传jdk安装包
  •   规划安装目录  /home/hadoop/apps/jdk_1.7.65
  •   解压安装包
  •   配置环境变量 /etc/profile

4.1.6 HADOOP安装部署

补充: HADOOP的版本选择

1、APACHE官方版本

      大版本:  0.20.2

                1.x

                2.x       2.6.4   2.7.3

2、商业发行版(商业版提供完善的管理系统、修bug可能领先于官方):

       Cloudera公司的CDH:5.7.x

 

 

  •   上传HADOOP安装包
  •   规划安装目录  /root/apps/hadoop-2.6.1
  •   解压安装包
  •   修改配置文件  $HADOOP_HOME/etc/hadoop/

最简化配置如下:

vi  hadoop-env.sh

# The java implementation to use.

export JAVA_HOME=/home/hadoop/apps/jdk1.7.0_51

 

 

vi  core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://hdp-node-01:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/HADOOP/apps/hadoop-2.6.1/tmp</value>

</property>

</configuration>

vi  hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/home/hadoop/data/name,/path2/,/path3/,nfs://</value>

</property>

<!---namenode配置多个目录和datanode配置多个目录,有什么区别?---->

<property>

<name>dfs.datanode.data.dir</name>

<value>/home/hadoop/data/data,/path2/</value>

</property>

 

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

 

<property>

<name>dfs.secondary.http.address</name>

<value>hdp-node-01:50090</value>

</property>

</configuration>

 

 

 

vi  mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

 

vi  yarn-site.xml

<configuration>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop01</value>

</property>

 

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

 

vi  salves

hdp-node-01

hdp-node-02

hdp-node-03

 

 

4.1.7 启动集群

初始化HDFS

bin/hadoop  namenode  -format

 

启动HDFS

sbin/start-dfs.sh

 

启动YARN

sbin/start-yarn.sh

4.1.8 测试

1、上传文件到HDFS

从本地上传一个文本文件到hdfs的/wordcount/input目录下

[HADOOP@hdp-node-01 ~]$ HADOOP fs -mkdir -p /wordcount/input

[HADOOP@hdp-node-01 ~]$ HADOOP fs -put /home/HADOOP/somewords.txt  /wordcount/input

 

2、运行一个mapreduce程序

在HADOOP安装目录下,运行一个示例mr程序

cd $HADOOP_HOME/share/hadoop/mapreduce/

hadoop jar mapredcue-example-2.6.1.jar wordcount /wordcount/input  /wordcount/output

转载于:https://www.cnblogs.com/shelock2017/p/6670706.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值