Apache Hadoop的核心组成及其架构

Apache Hadoop是分布式存储和计算框架,由HDFS、MapReduce和YARN组成。HDFS是分布式文件系统,提供高吞吐率的数据访问;MapReduce是并行处理模型,基于Map和Reduce阶段处理大规模数据;YARN是资源管理层,负责集群资源的管理和调度,支持多种数据处理框架。YARN的优势在于资源隔离、扩展性和兼容性。
摘要由CSDN通过智能技术生成

核心组成

Apache Hadoop 是一个开源的分布式存储与计算框架,它主要由以下几个核心组件组成:

  1. Hadoop Distributed File System (HDFS): HDFS 是 Hadoop 的分布式文件系统,它设计用于存储大量数据,并提供 高吞吐率的数据访问,通过将数据分块存储在多个节点上,实现数据的冗余存储和容错。
  2. Hadoop YARN (Yet Another Resource Negotiator): YARN 是 Hadoop 的资源管理层,负责管理计算资源(如 CPU 和内存),并为运行在 Hadoop 集群上的应用程序分配资源。YARN 引入了资源调度和作业管理的概念,使得 Hadoop 能够运行多种数据处理框架。
  3. Hadoop MapReduce: MapReduce 是 Hadoop 的编程模型,用于并行处理大规模数据集。MapReduce 工作流程分为两个阶段:Map 阶段和 Reduce 阶段,通过 Map 函数处理输入数据,然后通过 Reduce 函数聚合处理结果。

Hadoop=HDFS(分布式文件系统)+MapReduce(分布式计算框架)+Yarn(资源协调框架)+Common模块

除了这三个核心组件,Hadoop 生态系统还包含许多其他的项目和工具,如:

  • Hadoop Common:提供了 Hadoop 运行所需的公共库和工具。
  • Hive:一个建立在 Hadoop 之上的数据仓库基础设施,提供 SQL 查询语言 SQL(HiveQL)来查询存储在 Hadoop 文件系统中的数据。
  • Pig:一个高级的平台,用于创建 MapReduce 程序,使用 Pig Latin 脚本语言。
  • HBase:一个分布式、可扩展的大数据存储系统,运行在 Hadoop 之上,提供类似 Google Bigtable 的功能。
  • Sqoop:一个用于在 Hadoop 和关系型数据库之间传输数据的工具。
  • Flume:一个分布式、可靠且可用的系统,用于高效地收集、聚合和移动大量日志数据。
  • Spark:一个快速通用的大数据处理引擎,可以用于大规模数据处理和分析,与 Hadoop 生态系统紧密集成。

Hadoop 生态系统的这些组件共同提供了一个完整的大数据解决方案,使得用户可以在单一平台上进行数据存储、管理、处理和分析。

HDFS架构

HDFS架构

图中涉及到几个角色,

NameNode(nn):存储文件的元数据,比如文件名、文件目录结构、文件属性(生成时间、副本数、文件权限),以及每个文件的块列表和块所在的DataNode等。

SecondaryNameNode(2nn):辅助NameNode更好的工作,用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据快照。

DataNode(dn):在本地文件系统存储文件块数据,以及块数据的校验

MapReduce思想

Hadoop MapReduce 是一个软件框架,用于在 Hadoop 分布式存储系统上进行大规模数据处理。它允许开发者编写应用程序来并行处理大量数据集分布在计算机集群中。MapReduce 编程模型基于两个主要的处理阶段:Map(映射)和 Reduce(归约)。核心思想是分而治之,并行处理。

mapReduce简略流程图

  1. Map(映射)阶段:

在 Map 阶段,输入数据被拆分成多个小块(chunks),然后每个块被分配给一个 Map 任务进行处理。

Map 函数接收键值对数据作为输入,并对每一对键值对数据进行转换,产生一系列中间键值对。

Map 任务的输出被排序,并根据键值对的键进行分组,为 Reduce 阶段做准备。

  1. Shuffle(洗牌)阶段:

Shuffle 阶段是 Map 和 Reduce 之间的过渡阶段,它负责将 Map 阶段的输出传输到相应的 Reduce 任务。

在这个阶段,相同键的中间键值对被发送到同一个 Reduce 任务。

  1. Reduce(归约)阶段:

在 Reduce 阶段,每个 Reduce 任务接收到所有具有相同键的值的集合。

Reduce 函数对这些值进行处理,产生最终的输出结果。

Reduce 任务的输出被写入磁盘,形成最终的处理结果。

Hadoop MapReduce 提供了高度的可扩展性和容错性,它可以处理PB级别的数据,并且在节点故障时能够自动恢复数据和任务。MapReduce 的编程模型虽然相对简单,但它在处理大规模数据集时非常有效。

Hadoop MapReduce 的优势在于其能够利用集群中的所有计算资源,以及其对故障的鲁棒性(Fault Tolerance)。然而,它也有一些局限性,如对实时处理的支持不足,以及对复杂数据处理流程的管理不够灵活。随着大数据技术的发展,一些新的框架如 Apache Spark、Flink等 已经出现,它们提供了更高效的数据处理方式,特别是在迭代算法和交互式数据分析方面。

Hadoop YARN

YARN(Yet Another Resource Negotiator)是 Hadoop 2.x 版本引入的资源管理层,它负责管理计算资源在集群中的分配和调度。YARN 的设计目标是提高 Hadoop 的扩展性和灵活性,使其能够运行多种数据处理框架,而不仅仅是 MapReduce。

yarn架构

YARN 的主要组件:

  1. ResourceManager (RM)

ResourceManager 是 YARN 的中心管理节点,负责全局的资源管理和任务调度。

它包含两个主要组件:调度器(Scheduler)和应用程序管理器(ApplicationManager)。

  1. NodeManager (NM)

NodeManager 运行在每个集群节点上,负责管理该节点上的资源(CPU、内存等),以及运行在该节点上的容器(Container)。

它监控节点的健康状况,并向 ResourceManager 报告资源使用情况。

  1. Container

Container 是 YARN 中的资源抽象,代表分配给应用程序的计算资源,包括 CPU、内存和磁盘空间。

应用程序通过容器来执行任务。

  1. ApplicationMaster (AM)

ApplicationMaster 是每个 YARN 应用程序的控制节点,负责协调应用程序的执行。

AM 向 ResourceManager 申请资源(即容器),并监控容器的生命周期。

YARN 的工作流程:

  1. 提交应用程序

用户提交一个应用程序到 YARN,ApplicationMaster 被启动并注册到 ResourceManager。

  1. 资源请求

ApplicationMaster 向 ResourceManager 请求所需的资源(容器)。

  1. 资源分配

ResourceManager 根据当前的资源情况和调度策略,分配容器给 ApplicationMaster。

  1. 任务调度

ApplicationMaster 在获取到容器后,将应用程序分解为多个任务,并将任务调度到相应的容器上执行。

  1. 监控和恢复
  • ApplicationMaster 监控其管理的任务执行情况,并在任务失败时尝试重新调度。
  1. 完成应用程序

当所有任务成功完成后,ApplicationMaster 向 ResourceManager 注销,并释放所有资源。

YARN 的优势:

  • 资源隔离:YARN 通过容器机制实现了资源的隔离,允许多个应用程序共享集群资源,而不会互相干扰。
  • 扩展性:YARN 可以轻松扩展,支持更多的计算节点和更大的数据集。
  • 兼容性:YARN 支持多种数据处理框架,不仅限于 MapReduce,还可以运行如 Spark、Storm 等。
  • 高可用性:YARN 设计了高可用性特性,如 ResourceManager 的 Hot Standby 机制,以减少单点故障的影响。

YARN 的引入极大地增强了 Hadoop 的能力,使其成为一个更加通用和强大的大数据处理平台。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值