hadoop生态圈(一):hadoop集群的搭建

本文详细介绍了Hadoop集群的搭建过程,从集群概述、组件组成到具体搭建步骤,包括虚拟机环境准备、安装JDK和Hadoop、集群配置、启动及测试。此外,还涉及了Hadoop生态系统中的相关技术,如HDFS、YARN和MapReduce。
摘要由CSDN通过智能技术生成

目录

1 hadoop概述

1.1 hadoop是什么

1.2 hadoop的组成

1.2.1 hdfs架构概述

1.2.2 YARN概述

1.2.3 MapReduce架构概述

1.3 大数据生态体系

1.4 推荐系统架构图

2  Hadoop集群搭建

2.1 虚拟机环境准备

2.2 安装jdk和hadoop

2.3 集群配置

3 集群启动

3.1 集群单点启动

3.2 SSH无密登陆设置

3.3 集群一键启动/停止方式

4  测试

          4.1启动集群

4.2 集群基本测试

4.3 集群时间同步

4.3.1 时间服务器配置(必须是root用户)

4.3.2 其他机器配置(root用户)


1 hadoop概述

1.1 hadoop是什么

  1. Hadoop是一个由Apache基金会所开发的分布式系统基础架构
    1. 集群:多个机器共同完成一件事
    2. 分布式:多个机器共同完成一件事,然后不同机器作用不同,各司其职
    3. 集群不一定是分布式,分布式一定是集群
  2. 主要解决,海量数据的存储和海量数据的分析计算问题。
  3. 广义上来说,HADOOP通常是指一个更广泛的概念——HADOOP生态圈

1.2 hadoop的组成

  1. Hadoop HDFS:(hadoop distribute file system )一个高可靠、高吞吐量的分布式文件系统
  2. Hadoop MapReduce:一个分布式的离线并行计算框架
  3. Hadoop YARN:作业调度与集群资源管理的框架
  4. Hadoop Common:支持其他模块的工具模块(Configuration、RPC、序列化机制、日志操作)。

1.2.1 hdfs架构概述

 

1.2.2 YARN概述

  1. ResourceManager(rm):处理客户端请求、启动/监控ApplicationMaster、监控NodeManager、资源分配与调度;
  2. NodeManager(nm):单个节点上的资源管理、处理来自ResourceManager的命令、处理来自ApplicationMaster的命令;
  3. ApplicationMaster:数据切分、为应用程序申请资源,并分配给内部任务、任务监控与容错。
  4. Container:对任务运行环境的抽象,封装了CPU、内存等多维资源以及环境变量、启动命令等任务运行相关的信息。

1.2.3 MapReduce架构概述

MapReduce将计算过程分为两个阶段:Map(映射)和Reduce(归约)

  1. Map阶段并行处理输入数据
  2. Reduce阶段对Map结果进行汇总

 

1.3 大数据生态体系

图中涉及的技术名词解释如下:

  1. Sqoop:sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
  2. Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
  3. Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:
    1. 通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
    2. 高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息
    3. 支持通过Kafka服务器和消费机集群来分区消息。
    4. 支持Hadoop并行数据加载。
  4. Storm:Storm为分布式实时计算提供了一组通用原语,可被用于“流处理”之中,实时处理消息并更新数据库。这是管理队列及工作者集群的另一种方式。 Storm也可被用于“连续计算”(continuous computation),对数据流做连续查询,在计算时就将结果以流的形式输出给用户。
  5. Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
  6. Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。Oozie协调作业就是通过时间(频率)和有效数据触发当前的Oozie工作流程。
  7. Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
  8. Hive:hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
  9. R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。
  10. Mahout:
    1. Apache Mahout是个可扩展的机器学习和数据挖掘库,当前Mahout支持主要的4个用例:
    2. 推荐挖掘:搜集用户动作并以此给用户推荐可能喜欢的事物。
    3. 聚集:收集文件并进行相关文件分组。
    4. 分类:从现有的分类文档中学习,寻找文档中的相似特征,并为无标签的文档进行正确的归类。
    5. 频繁项集挖掘:将一组项分组,并识别哪些个别项会经常一起出现。
  11. ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。

1.4 推荐系统架构图

 

2  Hadoop集群搭建

安装所需要的软件链接:请点这里;提取码:i431 

也可以去官网自行下载

2.1 虚拟机环境准备

  • 三台虚拟机
  • 修改主机名 /etc/sysconfig/network    sync然后重启

主机名分别为:hadoop101;hadoop102;hadoop103;

  • 修改克隆虚拟机的静态ip,分别为:

IP分别为:192.168.1.101;192.168.1.102;192.168.1.103

  • 配置主机名和IP的映射关系(便于使用主机名访问虚拟机

[root@ hadoop101桌面]# vim /etc/hosts

添加如下内容

192.168.1.101 hadoop101

192.168.1.102 hadoop102

192.168.1.103 hadoop103

  • 关闭防火墙 service iptables stop;chkconfig iptables off
  • 在各个机器上使用root用户在/opt目录下创建module、software文件夹

2.2 安装jdk和hadoop

安装测略:现在一台节点上配置,然后通过命令发送到另外两台节点上

1. 卸载现有的jdk

查询是否安装jdk,如果版本低于1.7,卸载该jdk

[root@hadoop101 opt]$ rpm -qa | grep java

[root@hadoop101 opt]$  rpm -e 软件包

2. 将j

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值