MapReduce设计原理

MapReduce是一种分布式计算框架,与HDFS共同构成Hadoop的核心。它通过Client将作业提交到JobTracker,JobTracker调度TaskTracker执行Map Task和Reduce Task。Map阶段包括数据分区、映射处理,Reduce阶段涉及数据分组、排序和归约。整个流程还包括Shuffle过程,保证数据正确分发给Reducer。MapReduce简化了分布式计算,使得数据开发者只需关注Mapper和Reducer的实现。
摘要由CSDN通过智能技术生成
1、MR基本定义

参考百度百科定义,简要概括如下:
MapReduce是分布式的计算框架或者解决方案,大致有基本内容:
1)首先MapReduce重点是工作在集群的节点上,而非在单台服务器上做计算、做统计等
2)MapReduce把用户提交的任务以分布式放在多个节点上执行,自动划分计算数据和计算任务等,这些并行计算涉及到的系统底层的复杂细节交由MR框架负责处理。换句话:数据开发人员只需要定义“我要统计词频”的“任务”后,提交给MR框架即可,坐等计算结果,至于MR是如何从多台服务上找数据文件、计算统计、缓存中间计算结果、存储最终技术结果、CPU、内存、IO网络资源使用等,数据开发人员都无需关注,MR自己会处理。

2、HDFS和MR的关系

HDFS和MR共同组成Hadoop分布式系统体系结构的核心。HDFS在集群上实现了分布式文件系统,MR在集群上实现了分布式计算和任务处理。HDFS在MR任务处理过程中提供了文件操作和存储等支持,MR在HDFS的基础上实现了任务的分发、计算、跟踪等工作,并收集结果,二者相互作用,完成分布式集群的主要任务。

3、MR组件架构

在这里插入图片描述MapReduce框架设计为4部分:Client、JobTracker、TaskTracker以及Map Task & Reduce Task。具体内容如下:

1)Client 客户端
Hadoop中,把用户提交的MapReduce程序成为“Job”(作业),每一个 Job 都会在用户端通过 Client 类将应用程序以及配置参数 Configuration 打包成 jar文件存储在 HDFS,也就是这个MR程序 jar包在集群中每个节点都存放在一份,而且是存放在hdfs文件系统上,并把jar包路径告诉 JobTracker ,由它创建每一个 Task(即 Map Task 和 Reduce Task) 将它们分发到各个 TaskTracker 服务中去执行。

2)JobTracker

JobTracke负责资源监控和作业调度。JobTracker 监控所有TaskTracker 与job的健康状况,当然TaskTracker也会主动上报自己的情况,若JobTracker一旦发现某个TaskTracker失败,就将相应的任务转移到其他健康TaskTracker节点继续干活;同时,JobTracker 会跟踪任务的执行进度、资源使用量等信息,并将这些信息告诉任务调度器Task Scheduler,而调度器会在TaskTracker所在节点资源出现空闲时,选择合适的任务工作交由这些空闲的TaskTracker来干活。这里说的调度器,就是我们后面要讨论的YARN,在hadoop 1,MR框架还需要运行资源调度和管理服务,在hadoop 2中,这个资源调度功能在MR框架中剥离出来,交由更专业的YARN框架统一处理。

3)TaskTracker

TaskTracker 会周期性地通过Heartbeat 将本节点上资源的使用情况和任务的运行进度汇报给JobTracker&

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值