大数据初体验之概念篇(5)MapReduce篇

3 篇文章 0 订阅
1 篇文章 0 订阅

随着学习的深入,接触到了Hadoop的框架MapReduce,本文旨在对其进行初步概述。

1、MapReduce是什么

      MapReduce是Hadoop的一个软件框架,基于该框架能够容易地编写应用程序,这些应用程序能够运行在由上千个商用机器组成的大集群上,并以一种可靠的,具有容错能力的方式并行地处理上TB级别的海量数据集。MapReduce的概念主要由“Map(映射)”和“Reduce(归纳)”两部分组成。

2、MapReduce的特点

①、软件框架

②、并行处理

MapReduce采用了并行计算的方式,可以将计算过程分解成小部分然后以并发的方式加以解决来提高处理数据的效率
③、可靠且容错

MapReduce通过把对数据集的大规模操作分发给网络上的每个节点实现可靠性;每个节点会周期性的把完成的工作和状态的更新报告回来。

④、大规模集群

⑤、海量数据集

3、MapReduce做什么?

MapReduce的思想就是“分而治之”,如图所示


(1)Mapper负责“分”

把复杂的任务分解为若干个“简单的任务”来处理。“简单的任务”包含三层含义:
①、数据或计算的规模相对原任务要大大缩小
②、就近计算原则,任务会分配到存放着所需数据的节点上进行计算
③、这些小任务可以并行计算彼此间几乎没有依赖关系

(2)Reducer负责对map阶段的结果进行汇总

至于需要多少Reducer具体问题具体分析。
通过在mapred-site.xml配置文件里设置参数mapred.reduce.tasks的值,缺省值为1。

4、MapReduce的工作机制


5、MapReduce工作机制和流程

MapReduce工作流程图


作业涉及四个独立的实体

①、客户端,用来提交MapReduce作业

编写MapReduce程序,配置作业,提交作业,即我们作为程序员完成的工作。

②、JobTracker,用来协调作业的运行
初始化作业,分配作业,与TaskTracker通信,协调整个作业的执行。
③、TaskTracker,用来处理作业划分后的任务
保持与JobTracker的通信,在分配的数据片段上执行Map或Reduce任务,TaskTracker和JobTracker的不同有个很重要的方面, 就是在执行任务时TaskTracker可以有n多个,JobTracker则只会有一个。
④、HDFS,用来在其它实体间共享作业文件
保存作业的数据、配置信息等等,最后的结果也是保存在hdfs上面。

6、MapReduce的运行步骤

  首先是客户端要编写好mapreduce程序,配置好mapreduce的作业也就是job,接下来就是提交job了,提交job是提交到JobTracker上的,这个时候JobTracker就会构建这个job,具体就是分配一个新的job任务的ID值。

      然后它会做检查操作,这个检查就是确定输出目录是否存在,如果存在那么job就不能正常运行下去,JobTracker会抛出错误给客户端,接下来还要检查输入目录是否存在,如果不存在同样抛出错误,如果存在JobTracker会根据输入计算输入分片(Input Split),如果分片计算不出来也会抛出错误,至于输入分片我后面会做讲解的,这些都做好了JobTracker就会配置Job需要的资源了。

      分配好资源后,JobTracker就会初始化作业,初始化主要做的是将Job放入一个内部的队列,让配置好的作业调度器能调度到这个作业,作业调度器会初始化这个job,初始化就是创建一个正在运行的job对象(封装任务和记录信息),以便JobTracker跟踪job的状态和进程。

        初始化完毕后,作业调度器会获取输入分片信息(input split),每个分片创建一个map任务。

      接下来就是任务分配了,这个时候tasktracker会运行一个简单的循环机制定期发送心跳给jobtracker,心跳间隔是5秒,程序员可以配置这个时间,心跳就是jobtracker和tasktracker沟通的桥梁,通过心跳,jobtracker可以监控tasktracker是否存活,也可以获取tasktracker处理的状态和问题,同时tasktracker也可以通过心跳里的返回值获取jobtracker给它的操作指令。

      任务分配好后就是执行任务了。在任务执行时候jobtracker可以通过心跳机制监控tasktracker的状态和进度,同时也能计算出整个job的状态和进度,而tasktracker也可以本地监控自己的状态和进度。当jobtracker获得了最后一个完成指定任务的tasktracker操作成功的通知时候,jobtracker会把整个job状态置为成功,然后当客户端查询job运行状态时候(注意:这个是异步操作),客户端会查到job完成的通知的。如果job中途失败,mapreduce也会有相应机制处理,一般而言如果不是程序员程序本身有bug,mapreduce错误处理机制都能保证提交的job能正常完成。

7、MapReduce的运行机制

如图

       在Hadoop中,一个MapReduce作业会把输入的数据集切分为若干独立的数据块,由Map任务以完全并行的方式处理框架会对Map的输出先进行排序,然后把结果输入给Reduce任务。作业的输入和输出都会被存储在文件系统中,整个框架负责任务的调度和监控,以及重新执行已经关闭的任务。MapReduce框架和分布式文件系统是运行在一组相同的节点,计算节点和存储节点都是在一起的。
MapReduce框架组成

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值