MapReduce的工作流程是怎样的?

MapReduce的工作流程是怎样的?

MapReduce编程模型开发简单且功能强大,专门为并行处理大规模数据量而设计,接下来,我们通过一张图来描述MapReduce的工作过程,如下图所示。
在这里插入图片描述
在图中,MapReduce的工作流程大致可以分为5步,具体如下:

1.分片、格式化数据源

输入Map阶段的数据源,必须经过分片和格式化操作。

分片操作:指的是将源文件划分为大小相等的小数据块(Hadoop2.x中默认128M),也就是分片(split),Hadoop会为每一个分片构建一个Map任务,并由该任务运行自定义的map()函数,从而处理分片里的每一条记录;

格式化操作:将划分好的分片(split)格式化为键值对<key,value>形式的数据,其中,key代表偏移量,value代表每一行内容。

2.执行MapTask

每个Map任务都有一个内存缓冲区(缓冲区大小100M),输入的分片(split)数据经过Map任务处理后的中间结果,会写入内存缓冲区中。如果写入的数据达到内存缓冲的阀值(80M),会启动一个线程将内存中的溢出数据写入磁盘,同时不影响map中间结果继续写入缓冲区。

在溢写过程中,MapReduce框架会对Key进行排序,如果中间结果比较大,会形成多个溢写文件,最后的缓冲区数据也会全部溢写入磁盘形成一个溢写文件,如果是多个溢写文件,则最后合并所有的溢写文件为一个文件。

3.执行Shuffle过程

MapReduce工作过程中,map阶段处理的数据如何传递给Reduce阶段,这是MapReduce框架中关键的一个过程,这个过程叫做Shuffle。

Shuffle会将MapTask输出的处理结果数据,分发给ReduceTask,并在分发的过程中,对数据按key进行分区和排序。

4.执行ReduceTask

输入ReduceTask的数据流是<key,{value list}>形式,用户可以自定义reduce()方法进行逻辑处理,最终以<key,value>的形式输出。

5.写入文件

MapReduce框架会自动把ReduceTask生成的<key,value>传入OutputFormat的write方法,实现文件的写入操作。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. MapReduce 是一种分布式计算模型,其工作原理是将一个大规模数据集分成若干小的数据块进行处理,每个数据块可以在不同的计算节点上并行处理,最终将处理结果合并输出。MapReduce 采用了一种简单的函数式编程模型,即用户只需要提供两个函数,即 Map 函数和 Reduce 函数,系统会自动将数据集分割成小块并将它们分配给不同的计算节点进行计算,最后将计算结果进行合并输出。 2. MapReduce 的处理流程如下:首先,MapReduce 将输入数据划分成若干个小块,然后将这些小块分配给不同的计算节点进行处理。在每个计算节点上,数据块会经过两个阶段的处理:Map 阶段和 Reduce 阶段。在 Map 阶段,计算节点会对输入数据进行处理,产生一些键值对。这些键值对会被分组并排序,然后传递给 Reduce 阶段进行进一步的处理。在 Reduce 阶段,计算节点会对 Map 阶段产生的键值对进行聚合和计算,最终得到处理结果。 3. 在 MapReduce 程序中,必须包含以下几个模块: - Input Module:输入模块,用于读取输入数据。 - Map Function:Map 函数,用于对输入数据进行处理,产生一些键值对。 - Partition Function:分区函数,用于将 Map 函数产生的键值对进行分组。 - Sort Function:排序函数,用于对分组后的键值对进行排序。 - Reduce Function:Reduce 函数,用于对排序后的键值对进行聚合和计算。 - Output Module:输出模块,用于输出处理结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值